Példa:Jövőkutatás:Online vita XI.

A Miau Wiki wikiből

Pitlik László pitlik@miau.gau.hu

Objektivitás és automatizáció a jövőkutatásban

Bevezetés

Kiindulásként érdemes áttekinteni, milyen (furcsán skizofrén?) alapokról kell elmozdulni a jövőkutatás/modellezés hatékonyságának fokozása, a jövőkutatás automatizálása érdekében:

• A célcsoport: A jövőbe látni „csak úgy” kíváncsiságból, ill. gazdasági, politikai döntések támogatására szinte mindenki szeretne. Mégis – az információs társadalom korában - alapvető filozófiai és alkotmányos kérdéseket vet fel az elemzések alapját adó és eredményét jelentő adatok „védelme”… • A lehetőség: Modelleket alkotni, előrejelzéseket készíteni a matematikai statisztika és az operációkutatás elvei szerint szinte rutin feladatnak számít. Sőt az adatbányászati eljárások szoftveres támogatása mára már pl. neurális hálók kialakítását is képes szinte automatizálttá tenni. Az évezredek óta praktizált jóslás matematikai értelemben azonos módon kezelhető, mint gépi támogatás mellett zajló alternatívái. Mégsem foglalkozik sem a szakirodalom, sem az érintettek köre azzal az egyszerű kérdéssel: két modell (ill. két jós) közül melyik a jobb? • A hasznosság: Előrejelző szakmai csoportok prognózisainak objektív pontosságát szinte senki nem vizsgálja, nincsenek független szervezetek által minősített „versenyek” arra vonatkozóan: ki látja helyesebben a jövőt? A médiában és a hétköznapi kommunikációban mégis számos formában jelennek meg (ellenőrizetlen & ellenőrizhetetlen) előrejelzések/jóslatok… • A feladat: Ahhoz, hogy a Sheldon-féle vízió megvalósulhasson, minimális szemléleti változásra van szükség: általában véve növelni kell a gondolkodás és a minőségbiztosítás következességét. A feladat elvileg és lényegében egyszerű: tudatosan szembe kell nézni az emberi gondolkodás automatizálásának legapróbb részletkérdéseivel. Ennek eredményeként el kell érni, hogy mindazt, amit egy ember egyszer képes volt megalkotni, legközelebb szinte már csak számítógép végezze, míg az ember az így felgyorsult folyamat finomhangolása érdekében kell, hogy felhasználja képességeit. Azt azonban soha nem szabad szem elől téveszteni, hogy bármilyen szofisztikált és holisztikus módon közelítsük is a jövőt, az teljes részletességében mégis rejtve marad majd előlünk. Automatizálni csak akkor lehet egy folyamatot, ha minden egyes részletkérdés tekintetében algoritmizált szabályokba (még, ha „csak” fuzzy is) tudjuk foglalni a feltárt tudást.

Az automatizálható jövőkutatás a következő elvárásokat fogalmazza meg az érintettekkel szemben:

• csak ellenőrizhető, a jövőre vonatkozóan is kivitelezhető mérési (megfigyelési) adatokkal szabad dolgozni úgy input oldalon, mint a számított eredmények esetén, (vagyis csak olyan ismeretet szabad feldolgozni és olyan jelenség jövőjét előrejelezni, mely mérése nem kérdéses); • az ember szerepét minimumra kell visszaszorítani a modellalkotásban, (vagyis elvileg minden létező adatot, minden létező műveletet be kell vonni az összefüggés-generálás folyamatába, (így kerülve el azt, hogy ideológia-vezérelt részleges, zömmel tudatosan torzított, „tisztított” megoldási tereken belül folyjon csak a keresés); • a szubjektív állásfoglalásokat minimalizálni kell, (vagyis a Jó/Jobb, a Helyes/Helyesebb, a Konzisztens/Konzisztensebb, a Hiteles/Hitelesebb, a Hasonló/Hasonlóbb etc. fogalmát algoritmizálni kell annak érdekében, hogy a gépi tanulás, ill. a modellek versenyeztetése egyértelmű eredményekre vezessen); • a gazdasági hasznosság és a matematikai lehetőség fogalmait el kell választani egymástól (vagyis törekedni kell arra, hogy az előrejelzés tetszőlegesen magas pontossági értékei és az ezek eléréséhez szükséges idő-, ill. erőforrás-felhasználás egymástól függetlenül is vizsgálhatók legyenek); • nem célszerű pontszerű, kevés jelenségre vonatkozó, azaz parciális előrejelzést készíteni, hiszen a teljes adatvagyon alapján is több reális jövőkép képzelhető el, vagyis minél kisebb a restrikciók mennyisége, annál több alternatív jövő várható…

A következő oldalakon a szerző kísérletet tesz arra, hogy egységes keretrendszerbe foglalja össze azokat a részletkérdéseket és -eredményeket, melyek ma már gyakorlatilag is képessé tehetik az emberiséget a Sheldon-teória kivitelezésére…


Anyag és módszer

Az automatizált jövőkutatás alapanyaga minden műszeres mérési eredmény, (esetlegesen emberi érzékszervekkel megfigyelt jelenség). Ezen mérések egy tér-idő-jelenség mátrixban egyszerűen, félreérthetetlenül összefoglalhatók. Ez a mátrix magától értetődően jelöli ki a jövő helyét: az időtengely meghosszabbítása révén. Az időtengely tetszőleges felbontású lehet, hasonlóan a tér és a jelenség dimenziókhoz. A tér-idő-jelenség mátrix kapcsán önálló kutatási problémaként merül fel a hiányos adatpozíciók, ill. a módszertanukban változó „idősorok” értékének, kezelésének kérdései…

Mivel látszólag semmi mást nem tudunk, mint amit a tér-idő-jelenség mátrix tartalmaz, ill. ez a mátrix minden potenciális előrejelzés helyét is kijelöli, így olyan módszerre van szükség, mely „felszippantva” a mindenkor rendelkezésre álló múltat, tetszőleges jövőbeli időpontokra/intervallumokra képletszerű összefüggéssel képes levezetni tetszőleges attribútumok, tetszőleges térbeli pontokon mérendő értékeit.

A megoldási tér mérete (vagyis a szóba jöhető összefüggések száma) végtelen, hiszen pl. tetszőleges hosszúságú egyenletek alkothatók. A feladat matematikai szempontból nem más, mint a rendelkezésre álló adatok alapján azon összefüggés kiválasztani tudása, mely a következő n alkalmazás alatt a leghelyesebben képes a mérésekkel visszaigazolható jövőt előrevetíteni. Közgazdasági szempontból a feladat némileg módosulhat: ez esetben nem mindegy ugyanis: mennyi idő alatt, mennyi erőforrással, milyen pontosságú modellek alkothatók, hiszen a modellezés nem öncélú, hanem a többletérték termelés eszköze. A többletérték nem más, mint a modell nélkül elérhető hasznosság és a modell segítségével elérhető hasznosság különbözete. A hasznosság speciális dimenziója a kockázat, vagyis annak szubjektív megélése, mennyire előnytelen az a helyzet, mely a felmerülő hibás prognózisok következményeit jelenti. Jelen tanulmány „egyelőre csak” a matematikai kérdésfelvetésre keresi a választ, a közgazdasági vonatkozások önálló, jövőbeli fejezetet képeznek…


Vizsgálatok és eredményeik bemutatása

A következőkben valós modellezési feladatok alapján képzett gondolatkísérletek bemutatása következik.

Kombinatorikai megközelítés antagonizmusokkal: Minden modell az eddig felismert változók/jelenségek, műveleti jelek és egyéb szintaktikai jelek szintaktikailag értelmes (végtelen hosszú) sorozataként értelmezhető (vö. forráskód-karaktersor). Adott számítási teljesítmény és a feladat-megoldására rendelkezésre álló időlimit alapján a feladat operatív szinten végessé tehető, vagyis meghatározható az a modell-nagyság, mely mellett minden egyes lehetőség létrehozható és kipróbálható (tesztelhető). A modellek létrehozása tehát technokrata-részletkérdéssé degradálható. (Arra a kérdésre, vajon muszáj-e, érdemes-e minden egyes modellt létrehozni akkor is, ha nagy valószínűséggel, ill. teljes bizonyossággal tudható, hogy gyengébb eredményre vezet, mint az eddigi legjobb, a későbbiekben, a közgazdasági kérdések között érdemes foglalkozni…)

De vajon mit is jelent a tesztelés? A kialakított modellekkel olyan adatok következményeit kell kiszámíttatni, melyek egyébként a modellező számára ismertek, de a modell számára nem. Már itt felmerül egy alapvető antagonizmus egy speciális értelmezése. Alapesetben (gazdasági kényszerek hatása alatt), amikor is csak rel. kevés modellt alkotunk meg és vizsgálunk az antagonizmus a következőképpen hangzik: Vajon az ismert adatok alapján mennyit használhatunk fel a tanulásra (modell-alkotásra), s mennyit tesztelésre. Egyszerűen belátható: minél kevesebb a tanulási adatsor, annál kifinomultabb lehet a teszt, de annál egyszerűbb a modell, ill. annál kisebb eséllyel található meg a megfelelő komplexitású modell. Abban az esetben, amikor a modellek (korlátozott mértékű) kombinatorikai terét teljes mértékben letapogatjuk, nincs szükség a tanulási folyamatra. Ebben az esetben az antagonizmus az alábbiak szerint értelmezhető: Milyen helyes lehet/legyen a teszt-jelleggel kezelt látszat-jövő a tanulás-jelleggel értelmezhető távolabbi múlthoz képest akkor, ha a valódi cél az éles jövőbeli alkalmazások esetén bekövetkező hiba minimalizálása?

De vajon milyen hibát is kell minimalizálni? Újabb antagonizmusként megállapítható: Sok kis hibatényező (négyzet)összege is lehet azonos a kevesebb számú, de jelentősebb volumenű hibák összegével… S ekkor még nem is beszéltünk a rangsor-skálán, ill. a kontingenciák szintjén számítható hibák és a numerikus hibák egymáshoz való viszonyáról… (vö. OTKA F030664).

• Megoldási javaslat: Az antagonizmusokkal terhelt kombinatorikai probléma esetén egy közelítő megoldás a jövőgenerátor (Pitlik, 1993-2003, Giessen/Gödöllő), mely egy, a modellező által ad hoc kijelölt (tetszőlegesen komplex, a numerikus hibákkal szemben a kontingenciákat preferáló) célfüggvény esetén a teljes input-mátrix felhasználásával képes a kiválasztott jövőképpontok hibaminimalizált előállítására. • Megoldott kérdések: A javasolt megközelítés lehetővé teszi a teljes automatizálást, ill. holisztikus jövőképek levezetését. • Fennmaradó problémák: Az ad hoc célfüggvény teljesen szubjektív módon rangsorolja a potenciális megoldásokat. Az ad hoc célfüggvényben az ismert korrelációs megközelítések tetszőleges kombinációja esetén sem jelenik meg karakteresen a konzisztencia igénye, vagyis annak elvárása, hogy a jövőben is csak olyan attribútum-kombinációk legyenek megoldásként elfogadottak, melyek egyidejű bekövetkezését múltbeli tapasztalatok nem zárják ki.

Objektív és konzisztens megközelítés: Mint látható az automatizált jövőkép-gyártás központi kérdése nem a modellek előállítása, hanem ezek helyességének korrekt felismerése. Jelen OTKA kutatás középpontjában tehát a konzisztens jövőképek előállításának lehetősége áll. Amennyiben adott ismeretszint (múlt) mellett egy adott jövőbeli állapotsor nem zárható ki, ill. a leghitelesebbnek minősíthető, úgy a jövőkutatás elvégezte feladatát. Sőt automatizálhatóan teheti mindezt.

Első lépésként (a konzisztencia operatív és objektív kikényszerítésének lépéssora előtt) érdemes megkísérelni felvázolni, mit tekinthetünk adott pillanatban objektíven konzisztensnek? Az objektivitás elvárásának részletes kifejtése viszonylag egyszerű: minden olyan összefüggés, szabály, mely embertől függetlenül, adatok alapján levezetve jön létre, ill. ember által logikailag nem támadható, objektívnek (ember-függetlennek) tekinthető…

A konzisztencia definíciója sem feltétlenül bonyolultabb: Konzisztens az az adatmennyiség (állapotsor), melyben az egyes pozíciók együttállása ellen ható törvényszerűség nem ismert… Ha megvizsgáljuk a két definíciót, gyanússá válhat, hogy a logikailag nem támadhatóság és az ellenvetést jelentő összefüggés hiánya lényegében azonos, közös jelenségre utal. Ez a központi kérdés nem más, mint a hasonlóság fogalma! Objektivitás- és konzisztencia-gyanúsan hasonló két állapot(sor) akkor, ha van (egy-több) olyan szabályszerűség, mely az ismertnek megadott univerzumot egységes (önmagyarázó) módon képes leírni.

A célfüggvény, mely a jövőgenerálás optimumához enged automatikusan közelebb jutni, nem más, mint a minimális multiuniverzum-torzulás, vagyis a részuniverzumok egymásra vetülése alapján előálló leggyakoribb képpontok. Ezen képpontok adott (időben és térben értelmezett) részterületre vonatkozóan kirajzolhatnak: egyetlen, többé-kevésbé éles jövőt, két vagy több többé-kevésbé éles jövőt, ill. káosz-gyanús állapotokat.

• Megoldási javaslat: A hasonlóság fogalmának (objektivitás-gyanús) operacionalizálása után (vö. Pitlik 2003/2004: COCO) tér-, idő-, jelenség-részuniverzumok megalkotása, ezen univerzumokban minden ismert jövőbeli pont levezetése, jelenségszintű-ütközések feltárása, ill. a jövő tér- és idő-együttállásának egyedi és egymásra épülő (vö. folytonosságot közelítő) tesztelése. Mindenezen lépések heurisztikus letapogatás keretében való ismétlése a bemeneti univerzum (primer megfigyelések) végtelen variációiból a leginkább logikus változatok (származtatott adatok) kipróbálása formájában. • Megoldott kérdések: Minden „felismert ismeret” felhasználásra kerül, alapvetően minimális emberi beavatkozás (hasonlóság inicializálása, input-verziók kipróbálási sorrendje) mellett. • Fennmaradó problémák: A hasonlóság-elvű modellalkotásban egyetlen univerzális mag (a COCO-Háló) áll a középpontban, mely önmagában egy fajta meta-modell. Így egy konkrét modell megalkotását az input-oldalon megadott paramétertömbök inicializálják. A mag-modell, ill. ennek hatékony alkalmazási keretfeltételeit vezérlő szabályok a folyamatosan gyűlő tapasztalatok alapján vélhetően állandó finomhangolásra szorulnak…

Az „objektív konzisztencia mag” levezetését és alkalmazás-szabályozását közvetlenül megelőző modellezési feladatok felsorolása:

• föld-érték modellezése (Kapuszta–Batiz [2003]: http://miau.gau.hu/miau/63/tdk.zip), • mezőgazdasági számlarendszer alapú (regionális) modellek (CAPRI, IDARA, SPEL, 1996-2006), • biológiai konzisztencia vizsgálata sertésállományok statisztikai adatsorain (Lencsés [2005]: http://miau.gau.hu/miau/78/pig_consi.xls), • tér- és időkonzisztenciák letapogatása (Biometria Konferencia [2005]: http://miau.gau.hu/miau/82/kjm_hu_ecology_full.doc), • árelemzés és prognózisok hasonlósági alapokon (Szanyi [2006]: http://miau.gau.hu/miau/92/nitra_full.doc), • automatikus hasonlóság-elemzések szövegsablonjainak feltárása (Pintér–Balla [2006]: http://miau.gau.hu/miau/95/coco_exs2.xls, http://miau.gau.hu/miau/94/coco_exs1.xls), • jelenség-konzisztencia letapogatása (Kaposvár, Szűcs [2006]: http://miau.gau.hu/miau/93/kaposvar_full.doc), • egyéb hasonlóságelemzések (Példatár: https://miau.gau.hu/mediawiki/index.php? title=Speci%C3%A1lis%3AAllpages&from=&namespace=100, ill. http://miau.gau.hu/sitemap/ kapcsolat.php3?where[kapcsolat]=coco&where[focsop]=oo&mod=l2003 ).


Vita

Az eredmények értékeléséhez térjünk vissza az eredeti problémafelvetéshez, vagyis a Sheldon-teória operacionalizálásához: A Sheldon-terv értelmében a tömegek reakcióinak karakterisztikus pontjai előre, tetszőlegesen hosszú időre jól kiszámíthatók, s ennek alapján a társadalmi, gazdasági folyamatok főbb áramlatai felismerhetők, befolyásolhatók. Ez a felvetés egy fajta determinisztikus (vö. mega-trendek) jelleget enged feltételezni a társadalmi folyamatokban.

Mivel az adatvédelem démonának és az egyedi és csoportos mimikri-technikák (korrupció, önámítás, titokvédelem stb.) felmagasztalásának korszakaiban kevés tapasztalat halmozódott fel arra vonatkozóan, vajon mi lenne az egyedekkel és a közösségekkel, ha minden ember jogosult lenne minden mért és számított állapotértéket azonnal megismerni, így a tömeges előrejelzések automatizálásának várható hatásait sokkal inkább az időjárás letapogatásán, mint sem a társadalmi folyamatok elemzésén keresztül érdemes értékelni.

Hogyan is áll ma a meteorológia elemzési pontossága (vö. http://miau.gau.hu/miau/94/meteor.zip, http://interm.gtk.gau.hu/miau/51/)?: A fogyasztóvédelem és a minőségbiztosítás korában nincs független szervezet által ellenőrzött előrejelzés-minősítés, a szakma maga nem közöl beválási adatokat, nincs verseny a szakértők és a modellek között, az objektíven feltárható beválási arányok a találgatás szintjén mozognak.

Mi várható egy objektivitásra és konzisztenciára törekvő modell megalkotásától? Világos helyzetkép a beválási arányok alakulásáról, a modellek és szakértők versenyéről – illetőleg – ingadozó, trendjében sem feltétlenül növekvő, de szakaszosan szignifikáns pontosság-növekedést felmutató, egyre hosszabb időtávokra előrejelezni képes modellezési gyakorlat, mely visszahat a mért jelenségekre, vagyis minimalizálja a modellezési zajt…

Az ember szerepének minimalizálása révén (vö. objektivitás) a modellhibák minimalizálása ugyan továbbra is a Konrad Lorenz által felvázolt stratégia-alkotási (intuitív) tudomány-filozófiai modell, ill. a Labsch-modell keretében írható le, ahol is egyes egyedek megmagyarázhatatlanul kevés tapasztalat alapján is nagyhorderejű felfedezésekre lesznek képesek, mely összefüggések ugrásszerűen engedik módosítani a modellezés finomhangolási hatékonyságát…

A jövőkutatás automatizálására felvázolt lehetőség alapvetően jól bevált munkaszervezési elvek (verseny, minőségbiztosítás) számonkérését jelentik. A megoldás innovatív magja azonban a hasonlóság fogalmának objektivitásra törekvő operacionalizálását állítja a középpontba követve a számos hazai fejlesztés (Dobó, Kindler-Papp, Mikolics) által kijelölt irányt.

A gyanúsan determinisztikus, az alternatív, ill. káoszt sejtető jövőképekkel való társadalmi és gazdasági együttélés egyént és közösséget érintő problémái a jövőbeli kutatási témák egyik középponti kérdését jelölik ki.

Technokrata oldalon már hónapokon belül megjelennek olyan online szolgáltatások, melyek a felvázolt hasonlóság-alapú innovációt kiaknázva hálózati (outsourcing-jellegű) adatbányászati szolgáltatásokat kínálnak fel hazai és nemzetközi szinten a felhasználók által birtokolt mikro-adatuniverzumokban rejlő, a mai szaksajtó elemzési szintjét elérő, meghaladó tanulmányok automatikus készítése révén…


Konklúziók

Az objektivitásra való törekvés számos tényező akadályozza hosszabb távon is:

• a (primer és elemzési szintű) adatvédelemhez való egyéni és társadalmi ragaszkodás révén korlátozódik az adatuniverzumok mérete, térben é s időben való hozzáférhetősége… • a szubjektivitás (a látszólag saját kézben tartott döntési jog) illúziójához való ragaszkodás… • a jövő megismerni nem akarása, vagyis a fatalizmus lustaság-vezérelt stratégiájának favorizálása… • az online számítási kapacitásokhoz (vö. idle-time processing) való hozzáférés tudatos, ill. esetleges korlátozása… • a rel. lassú tudás-diffúzió, mely az eddig ad hoc (intuitív módon, hitkérdésként) kezelt hasonlóságelemzési kérdéseket felemeli a tudatos elemzési problémák körébe…

A tanulmány a T 049013. sz. OTKA keretében készült.