Tudnivalók az optimum jellegű hatásmechanizmusok offline kezeléséről
Steps/recommendations:
- Az optimumról általában: A hasonlóságelemzés (szemben a döntési fákkal és a neurális hálózatokkal) nem kell, hogy tetszÅ‘leges alakzatoknak adjon teret az egyes X-attribútumok és az Y tekintetében (vö. döntési fák lépcsÅ‘s nézete). A hasonlóságelemzés által kÃnált lépcsÅ‘zetesség lényegében mindennemű ceteris paribus alakzatot felvehet, de elsÅ‘dlegesen rendszer szinten igyekszik egy X és az Y kölcsönhatásának általános tÃpusát felismerni, s csak indirekt módon (több kiegészÃtÅ‘ modellfuttatással: vö. lépcsÅ‘k átértelmezése döntési fává) kÃnálja fel annak lehetÅ‘ségét, hogy helyzetfüggÅ‘ optimumokról beszélhessünk (pl. nitrogén és a terméseredmény kölcsönhatása tÅ‘zeg és homok talajon).
- Két-oszlopos optimum (STD): Ha egy-egy attribútum esetén az optimum pont/intervallum ismert, ill. feltételezhető, mely két ismert objektum értéke közé esik, akkor az objektumok két csoportba sorolhatók: egy optimum alatti és egy optimum feletti csoportba. Mindkét csoportra önálló attribútumot lehet definiálni annak érdekében, hogy az optimumtól való eltérés iránya és mértéke szerint eltérő lépcsőfokok alakulhassanak ki (vö. skorbut vs. C-vitamin túladagolás).
- Irány nélküli OAM (OPTI_1): Az optimalizálás elsÅ‘dlegesen, mint a rangsorolás irányának meg adni nem tudása jelentkezik a standard modell épÃtésekor. Ennek triviális ellenszere az, ha két tanulási mintát adunk meg egyszerre: az egyik a minél nagyobb annál jobb, mÃg a másik minden attribútum esetén ennek az ellentettje. Kivéve az Y-értékeket, melyek természetesen az azonos objektumok esetén azonosak maradnak. Az Ãgy kijelölt tanulási feladatban két részmegoldás születik: egy lépcsÅ‘sorozat a minél nagyobb annál jobb elv mentén és egy ennek ellentettjéhez. A kettÅ‘ eredÅ‘je (pl. átlaga, vagy az adott rangsorszám esetén nagyobb, ill. kisebb) szinte tetszÅ‘leges polinomszerű alakzatokat képes felvenni. (Megj.: az átlagolás esetén pl. az elsÅ‘dleges alakzat egy U-alakú görbe, mely tehát az X(min) és az X(max) esetén nem képes Y=0 érétkeket produkálni.)
- Részleges restrikciók (OPTI_2): Ha az OPTI_1 klasszikus lépcsÅ‘-elÅ‘Ãrásait, ill. ezek összevonását részlegessé tesszük, akkor kikényszerÃthetÅ‘k az X(min) és az X(max) esetén Y=0 értékek.
- Restrikciók nélkül (MCM): Abban az esetben ha a lépcsÅ‘k száma 3 (vagyis csak jó-közepes-rossz input szintekrÅ‘l beszélünk minden egyes attribútum esetén), kikapcsolható a lépcsÅ‘ket elÅ‘Ãró korlátozó feltételek sora, mely egyrészt gyorsÃtja a modell-épÃtést és futtatás, másrészt tetszÅ‘leges 3-pontos alakzatokat képes előállÃtani ceteris paribus rendszer-összefüggésként.
- Az OPTI_3 esetén az engedélyezett lépcsÅ‘számot növelve (4-re, 5-re, ill. egészen az objektumok számáig), s továbbra sem alkalmazva korlátozó feltételeket, elÅ‘ször egyre több-pontos (egyre finomabb lefutású), még zömmel (pl. simÃtásokkal) optimum-hatásként értelmezhetÅ‘ alakzatokat nyerhetünk. Ha a lépcsÅ‘k száma megközelÃti/eléri az objektumok számát, akkor egy fajta MCM-mel (Monte-Carlo módszerrel) állunk szemben, mely teljesen véletlenszerű lépcsÅ‘fokokkal (vö. döntési fák polinomizálódási hajlama) alapellentmondást nem hordoó tanulási minták esetén mindenkor nulla modellhibát képes produkálni (vagyis automatikusan túltanul).
- Jelenségközi optimum (STD): Olyan esetekben, amikor egy-egy attribútum optimuma erőteljesen ingadozó lehet eltérő keretfeltételek mellett (pl. tápanyagok arányai), az optimalizálást nem célszerű a primer jelenségek (pl. nitrogén-adag, vagy nyersrost-tartalom) szintjén kezelni akarni, hanem ezek egymáshoz való viszonyát kell vizsgálni (pl. talaj homoktartalmára jutó nitrogén-adag, vagy nyersfehérje és nyersrost aránya). Vigyázni kell azonban arra, hogy az új (származtatott) változók és a mindenkori Y viszonyára vonatkozóan rendelkezzünk valamiféle elképzeléssel ezek ceteris paribus alakzatait illetően.
- Irány-letapogatás: Offline esetekben a solver képes arra (a nem negatÃv lépcsÅ‘fokok engedélyezése esetén), hogy negatÃv lépcsÅ‘fokok formájában tegyen eleget annak, hogy bármely két, szomszédos lépcsÅ‘ hányadosa egy-egy attribútumon belül nullánál nagyobb legyen, s Ãgy a jobbnak vélt helyezés ellentettje legyen a nagyobb hatású (pl. elsÅ‘ hely: -12, második hely: -6, hányados = 2). Vagyis a jelzett vezérlési beállÃtások esetén az egyes attribútumok irányultsága automatikusan beállhat a tanulási minta és a hibaminimalizálás alapján leginkább logikus opció szerint.
Should you have any further questions, we suggest you to take a look on the related documents of MIAU: e.g. Demo
((Back))