Tudnivalók az optimum jellegű hatásmechanizmusok offline kezeléséről

Steps/recommendations:

  • Az optimumról általában: A hasonlóságelemzés (szemben a döntési fákkal és a neurális hálózatokkal) nem kell, hogy tetszÅ‘leges alakzatoknak adjon teret az egyes X-attribútumok és az Y tekintetében (vö. döntési fák lépcsÅ‘s nézete). A hasonlóságelemzés által kínált lépcsÅ‘zetesség lényegében mindennemű ceteris paribus alakzatot felvehet, de elsÅ‘dlegesen rendszer szinten igyekszik egy X és az Y kölcsönhatásának általános típusát felismerni, s csak indirekt módon (több kiegészítÅ‘ modellfuttatással: vö. lépcsÅ‘k átértelmezése döntési fává) kínálja fel annak lehetÅ‘ségét, hogy helyzetfüggÅ‘ optimumokról beszélhessünk (pl. nitrogén és a terméseredmény kölcsönhatása tÅ‘zeg és homok talajon).
  • Két-oszlopos optimum (STD): Ha egy-egy attribútum esetén az optimum pont/intervallum ismert, ill. feltételezhetÅ‘, mely két ismert objektum értéke közé esik, akkor az objektumok két csoportba sorolhatók: egy optimum alatti és egy optimum feletti csoportba. Mindkét csoportra önálló attribútumot lehet definiálni annak érdekében, hogy az optimumtól való eltérés iránya és mértéke szerint eltérÅ‘ lépcsÅ‘fokok alakulhassanak ki (vö. skorbut vs. C-vitamin túladagolás).
  • Irány nélküli OAM (OPTI_1): Az optimalizálás elsÅ‘dlegesen, mint a rangsorolás irányának meg adni nem tudása jelentkezik a standard modell építésekor. Ennek triviális ellenszere az, ha két tanulási mintát adunk meg egyszerre: az egyik a minél nagyobb annál jobb, míg a másik minden attribútum esetén ennek az ellentettje. Kivéve az Y-értékeket, melyek természetesen az azonos objektumok esetén azonosak maradnak. Az így kijelölt tanulási feladatban két részmegoldás születik: egy lépcsÅ‘sorozat a minél nagyobb annál jobb elv mentén és egy ennek ellentettjéhez. A kettÅ‘ eredÅ‘je (pl. átlaga, vagy az adott rangsorszám esetén nagyobb, ill. kisebb) szinte tetszÅ‘leges polinomszerű alakzatokat képes felvenni. (Megj.: az átlagolás esetén pl. az elsÅ‘dleges alakzat egy U-alakú görbe, mely tehát az X(min) és az X(max) esetén nem képes Y=0 érétkeket produkálni.)
  • Részleges restrikciók (OPTI_2): Ha az OPTI_1 klasszikus lépcsÅ‘-előírásait, ill. ezek összevonását részlegessé tesszük, akkor kikényszeríthetÅ‘k az X(min) és az X(max) esetén Y=0 értékek.
  • Restrikciók nélkül (MCM): Abban az esetben ha a lépcsÅ‘k száma 3 (vagyis csak jó-közepes-rossz input szintekrÅ‘l beszélünk minden egyes attribútum esetén), kikapcsolható a lépcsÅ‘ket előíró korlátozó feltételek sora, mely egyrészt gyorsítja a modell-építést és futtatás, másrészt tetszÅ‘leges 3-pontos alakzatokat képes előállítani ceteris paribus rendszer-összefüggésként.
  • Az OPTI_3 esetén az engedélyezett lépcsÅ‘számot növelve (4-re, 5-re, ill. egészen az objektumok számáig), s továbbra sem alkalmazva korlátozó feltételeket, elÅ‘ször egyre több-pontos (egyre finomabb lefutású), még zömmel (pl. simításokkal) optimum-hatásként értelmezhetÅ‘ alakzatokat nyerhetünk. Ha a lépcsÅ‘k száma megközelíti/eléri az objektumok számát, akkor egy fajta MCM-mel (Monte-Carlo módszerrel) állunk szemben, mely teljesen véletlenszerű lépcsÅ‘fokokkal (vö. döntési fák polinomizálódási hajlama) alapellentmondást nem hordoó tanulási minták esetén mindenkor nulla modellhibát képes produkálni (vagyis automatikusan túltanul).
  • Jelenségközi optimum (STD): Olyan esetekben, amikor egy-egy attribútum optimuma erÅ‘teljesen ingadozó lehet eltérÅ‘ keretfeltételek mellett (pl. tápanyagok arányai), az optimalizálást nem célszerű a primer jelenségek (pl. nitrogén-adag, vagy nyersrost-tartalom) szintjén kezelni akarni, hanem ezek egymáshoz való viszonyát kell vizsgálni (pl. talaj homoktartalmára jutó nitrogén-adag, vagy nyersfehérje és nyersrost aránya). Vigyázni kell azonban arra, hogy az új (származtatott) változók és a mindenkori Y viszonyára vonatkozóan rendelkezzünk valamiféle elképzeléssel ezek ceteris paribus alakzatait illetÅ‘en.
  • Irány-letapogatás: Offline esetekben a solver képes arra (a nem negatív lépcsÅ‘fokok engedélyezése esetén), hogy negatív lépcsÅ‘fokok formájában tegyen eleget annak, hogy bármely két, szomszédos lépcsÅ‘ hányadosa egy-egy attribútumon belül nullánál nagyobb legyen, s így a jobbnak vélt helyezés ellentettje legyen a nagyobb hatású (pl. elsÅ‘ hely: -12, második hely: -6, hányados = 2). Vagyis a jelzett vezérlési beállítások esetén az egyes attribútumok irányultsága automatikusan beállhat a tanulási minta és a hibaminimalizálás alapján leginkább logikus opció szerint.

Should you have any further questions, we suggest you to take a look on the related documents of MIAU: e.g. Demo


((Back))