+ Ötletistálló +

Erre igazán büszkék vagyunk! close

+ MY-X DVD +

2017.IX.
A MY-X team (fiatal tagjaival közösen) sikeresen vett részt a szarvasi konferencián!

2017.VII.
A MY-X team (fiatal tagjaival közösen) sikeresen vett részt az Enyedi Emlékkonferencián!

2017.VI.
A MY-X team egy tagja elnyerte a Bárdy Péter Természettudományi Díjat többek között kiemelkedő innovativitása okán!

2017.V.
A MY-X team egy tagjának a Gábor Dénes Középiskolai Ösztöndíj pályázatra benyújtott dolgozatát a Zsűri véleménye alapján az Alapítvány kuratóriuma matematikai különdíjban részesítette, ill. a kutatócsoport tagjának további tanulmányait egyszeri ösztöndíjjal segíti!

2017.IV.
Különdíjat kapott a MY-X team egyik tagja a minszki nemzetközi esszéíró versenyen a jövő iskolájában várható IKT használatról szóló tanulmányáért!

2017.IV.
III. helyezés a Hlavay Diákkonferencián!

2017.III.
Az NTP-NFTÖ támogatásával beszerzésre került egy prémium kategóriás laptop!

2017.II.
A TUDOK (nyíregyházi) országos döntőjéből sikeres továbbjutás a (székesfehérvári) Kárpát-medencei döntőbe!



Last modified: 2015.VII.19.14:08 - MIAÚ-RSS
A MIAÚ immár 20­+ éve áll a Köz szolgálatára!

Autonomous, driverless, self-driving, robotic cars, or a kind of quality manager for traffic systems

Leading article: 2018. October (MIAU No. 242.)
(Previous article: MIAU No. 241.)

Keywords: Highway Code, robot judge, robot expert

The key message of the paper is: the re-interpreting of the definition of the Turing tests. The classic approach says: intelligent is a robot, if the humans are not capable of distinction between behavior pattern of humans and robots. There, where the quality of the artificial intelligence is over a given (e.g. legal) threshold (e.g. robotic cars, parking assistant, ABS, etc.), the re-interpretation of the Turing tests becomes rational as follows: human behaviors in traffic situations should be seen as correct, if the robotic cars would practice the same pattern or support the same decision. This reinterpretation is valid both for dynamic cases like priority of driving away and in static situations e.g. detecting a parking slot. If human individuals (head of experiments or common people) are not agreed with decisions of a robotic car in a given/single situation, but the robotic car derives mostly acceptable decisions, then it is not trivial, that the source code of the car is wrong. The parallel (preferred) suspicion should be rather: the traffic signs are inconsistent. Therefore, the specific reactions of robotic cars can be used as a kind of quality management input for suspicion generation. With other words: If a robotic car derives different decisions because of different approaching to a given parking slot, then the traffic signs are not consistent enough. More (DOC) *** More (PDF)


Please, send Your comments per email!

((Back))
miau.my-x.hu
myxfree.tool
rss.services