Tudnivalók a lépcsők számának hatásairól
Steps/recommendations:
- Standard: A hasonlóságelemzés során a lépcsők száma általában azonos az objektumok számával, hiszen miért is kellene eltekinteni az esetek (objektumok) egyediségétől. Attól azonban, hogy a tanulási mintában minden objektum egyedi, a lépcsők tényleges száma attribútumonként eltérő lehet, hiszen a szomszédos lépcsőfokok összevonódása nem mást, mint a hiba-minimalizálás, ill. az ellentmondásfeltárás folyamata. A hasonlóságelemzés során tehát egyidejűleg bármilyen lépcsőszám megengedett az input-oldalon és kialakulhat az output-oldalon.
- Ha a lépcsÅ‘k száma 1, akkor bemeneti jelként felesleges, azaz hatással nem bÃró attribútummal állunk szemben, melyet érdemes a futásgyorsÃtás érdekében kihagyni. Ha az output-oldalon válik monotonná (konstanssá, zajjá) egy attribútum hatása, akkor erre a jelre nincs szükség az adott modell-hibaszint biztosÃtásához, ill. ezen attribútum bevonása csak modellhiba-növelés mellett képzelhetÅ‘ el.
- A lépcsÅ‘k száma tehát minimum 2 illik, hogy legyen. Ez input oldalon egy bináris attribútumot jelent (férfi/nÅ‘, ill. binárissá tett: pl. kicsi/nagy). Outputként (a 2 lépcsÅ‘szint) az attribútum hatásossá válásának alsó határa. A bináris lépcsÅ‘ egy fajta küszöbértéket/vÃzválasztót enged értelmezni a bemeneti jel esetén (vö. ingerküszöb).
- Ha a lépcsÅ‘k száma 3, akkor ez bemeneti jelként már lehetÅ‘vé teszi, hogy korlátozó feltételek nélkül optimum jelleg után nyomozzunk. Output-oldalon jó-közepes-rossz, ill. az optimális hatásszintek beazonosÃtása innentÅ‘l kezdve lehetséges.
- A medián és a kvartilis fogalmán keresztül tetszőlegesen nagy mintákat lehet tetszőleges sok, viszonylag azonos elemszámú csoportba sorolni táblázatkezelő szoftver támogatása mellett.
- A lépcsÅ‘ lehet nulla és negatÃv is. A negatÃv szám az ár-teljesÃtmény elemzések kapcsán azt jelenti közelÃtÅ‘leg, hogy ha fizetnének érte, akkor sem kellene az adott objektum, ill. csak ha ennyit fizetnek érte, akkor...
- A lépcsőfokok távolsága önálló értelmezési kérdés: érdemes a lépcsőfokok távolságát és a primer inputadatok távolságát az adott probléma összefüggésrendszén belül egyedileg vizsgálni.
- Adathiány kezelése: Ha egy primer adat hiányzik, akkor ezt az OAM-ben a leggyengébb lépcsőfokkal lehet automatikusan pótolni. Természetesen, ha szinte minden adat hiányzik, akkor sok jót nem várhatunk egy jel-gyenge OAM-től az eredmények kapcsán sem.
- Kombinatorikai tér: Egy lépcsÅ‘s függvény kombinatorikai tere nem más, mint az output-lépcsÅ‘k attribútumonként eltérÅ‘ szintjeit mutató darabszámok szorzata. A lépcsÅ‘s függvény tehát képes lehet a tanulási minta elemszámánál nagyobb és kisebb kombinatorikai teret is értelmezni. A nagyobb tér egy fajta extrapolaciós és interpolációs kapacitás (vö. genetikai potenciál), mÃg a kisebb tér a bemeneti jelek ellentmondásosságát jelzi.
- Szakértői rendszerek: A kombinatorikai téren belül egy lépcsős függvény lényegében szakértői rendszerként működik, vagyis minden egyes input-jelvariáns esetére rendelkezik egy output értékkel.
- A lépcsÅ‘k számának csökkentése a futásgyorsÃtás mellett alapvetÅ‘en a modell robosztusságát szolgálja (vö. döntési fák esetén az egy csoportba sorolható/sorolandó objektumok száma). Minél kevesebb a lépcsÅ‘k száma, annál kevésbé érzékeny a modell egyedi mérési hibákra.
- Y-lépcsÅ‘k (input): Az Y-vektor lehet monoton (vö. Y0-modell), lehet bináris (vö. klasszifikálás), lehet lényegesen kevesebb elemű, mint az az objektumok számából következne (vö. klasszifikálás, ill. Y0-modell online kikényszerÃtése), ill. lehetésges, hogy minden Y egymástól eltérÅ‘ értékű. Az Y-értékek számának csökkentése (összevonás), hasonlóan az input-oldalhoz a túltanulás ellen hat.
- Y-lépcsÅ‘k (output): A becsült értékek esetében is megfigyelhetÅ‘ lépcsÅ‘zetesség, vagyis meg nem oldható feladatok esetén minden becslési érték azonos, hiszen az inputok mindegyik a többivel ellentmondásban áll, Ãgy a legjobb közelÃtés (becslés) a tény-Y-értékek átlaga. Az Y értékek száma tehát 1-tÅ‘l n-ig terjedhet, ahol n a kombinatorikai tér mérete.
- Y-nagyságrendek (input): Itt érdemes megemlÃteni, hogy az Y-vektort eltolva nagyobb mozgásteret lehet adni a lépcsÅ‘sfüggvény paramétereit keresÅ‘ eljárásoknak, vagyis pontosabb lehet a közelÃtés ilyen esetekben.
- Y-nagyságrendek (output): S ha már szóba került az Y-vektor input-oldali nagyságrendje, akkor ki kell térni az Y-becslésre is. Ebben az esetben kényszerként kell felfogni, hogy a tényleges és a becsült Y-ok összege azonos kell, hogy legyen, hiszen ellenkezÅ‘ esetben a modell szisztematikusan lefelé vagy felfelé torzÃtana. Ha azonban a modell hibája nem nulla, akkor a hibadefinÃción múlik, vajon mit preferálunk jobban, a nagyobb hibák minimalizálását bármely hibával szemben, vagy sem...
Should you have any further questions, we suggest you to take a look on the related documents of MIAU: e.g. Demo
((Back))