Gary Marcusnak, a New York-i Egyetem kognitív tudósának van egy hároméves kislánya, Chloe, aki imádta a Lego-készleteket. Minden épülete azonban függőleges volt, alulról felfelé mutatott. Ezért egyik nap apja lego szalagokat hozott, lehetővé téve, hogy lego kockákból akár oldalra, akár fejjel lefelé építsen alkotásokat. Eleinte azt javasolta a lányának, hogy álljon az asztal oldalára, de Chloe egy pillanatra maga ragasztotta a szalagot a falhoz, és légiós szobra néhány perc alatt kiugrott a falból.

Marcus valójában kísérletet végzett, hogy Chloe képes legyen új összefüggésekben alkalmazni azt, amit már tudott a tevékenységről. Chloe itt megmutatta a józan észt, egyfajta intelligenciát, amely a mesterséges intelligenciát jobban összpontosítja a reprodukcióra, a problémákra. De Marcus úgy véli, hogy a mesterséges intelligenciát ugyanúgy lehet megtanulni, mint a gyerekeket.

A gépi tanulás kutatói szerint a nagy mennyiségű adatra kiképzett számítógépek bármit megtanulhatnak, beleértve a józan észt is, csak néhány programozott szabályra van szükségük. Marcus szerint azonban az informatikusok figyelmen kívül hagyják a kognitív tudományban és a fejlesztéspszichológiában végzett több évtizedes munkát, amely azt mutatja, hogy az emberek veleszületett képességekkel, programozott ösztönökkel rendelkeznek, amelyek születéskor vagy kora gyermekkorban jelentkeznek, és segítenek elvontan és rugalmasan gondolkodni, mint Chloe. Szerinte a tudósoknak épp ilyen ösztönöket kellene beépíteniük mesterséges intelligencia programjaikba.

áttekintése

Számos informatikus még mindig vizsgálja a "naiv" mesterséges intelligencia határait. Sokan ellenzik, hogy túl sok háttérismeretet adjanak be. Ezenkívül sok tudós értékeli az egyszerűséget és idegenkedik a túl összetett kód hibakeresésétől. Egy másik tényező az olyan vállalatok, mint a Facebook vagy a Google, amelyek leginkább a mesterséges intelligencia iránt érdeklődnek, amely szűken meghatározott problémákra összpontosít, például a webes keresésre vagy az arcfelismerésre. A mesterséges intelligencia rendszereknek nincs szükségük előzetes ismeretekre ezekhez a feladatokhoz, és nagy adathalmazokon lehet betanítani őket. Ugyanakkor nagyon jó eredményeket érnek el bennük.

Hosszú távon azonban a tudósok elvárják, hogy a mesterséges intelligencia sokkal összetettebb feladatokat hajtson végre, amelyek rugalmasságot és józan észt igényelnek. Csevegőrobotokat akarnak létrehozni, amelyek megmagyarázzák a híreket, autonóm taxikat, amelyek kezelik a kaotikus városi forgalmat, és az idős embereket kezelő robotokat. "Ha olyan robotokat akarunk létrehozni, amelyek képesek kölcsönhatásba lépni az egész emberi világban, például a C-3PO-t" - mondja Josh Tenenbaum, a Massachusettsi Műszaki Egyetem (MIT) pszichológusa, "meg kell oldanunk az összes ezeket a problémákat sokkal általánosabb szinten. "

Néhány informatikus már próbálkozik. Februárban az MIT elindította az Intelligence Quest projektet, az emberi intelligencia technikai szempontból történő megértését célzó kutatási kezdeményezést. A projekt már több száz millió dolláros beruházást kapott. A tudósok azt remélik, hogy mesterséges intelligenciát kapnak valahol a tiszta gépi tanulás és a tiszta ösztön határán. Betart néhány beépített szabályt, de megtanulja, mint korábban.

Ennek a feladatnak fontos része lesz annak kiderítése, hogy a gyerekek mit és mikor tudnak - ez az ismeret aztán alkalmazható a gépeken. Legutóbb a washingtoni Seattle-i Allen Mesterséges Intelligencia Intézet 125 millió dollárt gyűjtött a józan ész fejlesztésére és tesztelésére a mesterséges intelligenciában. "Szeretnénk arra a struktúrára építeni, amely veleszületett az emberi agyban" - Oren Etzioni, az intézet főigazgatója, "de nem értjük, hogy az agy hogyan dolgozza fel a nyelvet, a gondolkodást és a tudást."

Az idő múlásával a mesterséges intelligencia (AI) a programozott szabályokon és logikán alapuló algoritmusokról a gépi tanulásra vált át, ahol az algoritmusok több szabályt tartalmaznak, és próba- és hibaképzés során szereznek adatokat. Az emberi elme valahol a kettő között van.

"Megpróbáljuk valóra váltani az AI-vel kapcsolatos egyik legrégebbi álmot: hogy fel tudjunk építeni egy olyan gépet, amely fejleszti az intelligenciáját, ahogyan az ember teszi - gyerekként indul és gyermekként tanul" - magyarázza Tenenbaum. Az elmúlt években az AI megmutatta, hogy képes lefordítani a beszédet, diagnosztizálni a rákot és megverni az embereket a pókerben. Hiba azonban mindig előfordulhat. Még olyan algoritmusok is, amelyek jobban meg tudják különböztetni a kutyafajtákat, mint amit néha áfonyás muffinnak jelölhet a chihuahua.

A gépi tanulás - egyfajta mesterséges intelligencia - felelős ezekért a sikerekért és kudarcokért. Elmondható, hogy a mesterséges intelligencia a sok programozott szabályra támaszkodó szoftverekről olyan rendszerek felé lépett át, amelyek próbákon keresztül tanulnak. Erőteljes számítógépek, nagy adatok és az ideghálónak nevezett algoritmusok fejlődése ezt lehetővé tette, az emberi agy idegsejtjeinek mintájára.

Ezt az eljárást használták a DeepMind Alpha programjában, amely ma már a Google tulajdonában van. 2016-ban az AlphaGo legyőzte az emberi bajnokot a klasszikus kínai Go játékban. Egy évvel később az AlphaGo Zero könnyedén megnyerte az AlphaGo-t sokkal kisebb szabályszámmal. Néhány hónappal később pedig egy még egyszerűbb AlphaZero rendszer verte az AlphaGo Zero-t és megtanult sakkozni. Bár az IBM Deep Blue 1997-ben legyőzte Garry Kasparov sakk nagymestert, klasszikus szabályalapú mesterséges intelligencia volt. Kiderült azonban, hogy az igazi sakkus virtuozitás abban rejlik, hogy ismerjük a kivételeket és a kivételektől való kivételeket stb. Ezeket az információkat leginkább tapasztalatokkal lehet megszerezni. Ezért az újra és újra tanuló AlphaZero legyőzheti a Deep Blue-t, a mai legjobb sakkprogramokat és bármelyik bajnokot.

De az olyan rendszerek, mint az Alpha, nem építhetik ki tapasztalataikat a józan ész alapján. Ha Alphának 21 × 21-es táblán kell játszania a klasszikus 19 × 19 helyett, akkor újra meg kell tanulnia a játékot. Tehát nem tudja átadni az ismereteket egyik területről a másikra, ahogy Chloe tette, amikor fejjel lefelé kezdett lego kockákat építeni.

A megoldás nem visszatér a szabályalapú mesterséges intelligenciához. Még egy gyermek sem ismeri fel a kutyát olyan szabályok alapján, mint pl hogy "végtagjainak száma = 4, farka van és nagyobb, mint egy macska". Az ilyen szabályok nem engednék felismerni pl. háromlábú csivava. Az emberek hajlamosak arra, hogy segítsék őket a világ megismerésében és igazolásában. A természet nem kész készségeket biztosít számunkra, hanem egy "állványt" ezek felépítéséhez.

Pszichológusok szerint legalább négy "alapismeret" rendszerünk van, amelyek alapot adnak a tárgyak, tevékenységek, számok és tér megértéséhez. Például egy tanulmány szerint a 3 naposnál idősebb gyermekek a részben eltakart rúd két végét egyetlen entitás részeként értelmezik - ami arra utal, hogy agyunk hajlamos lehet összetartó tárgyak észlelésére.

Marcus összeállított egy minimális 10 emberi ösztön listát, amelyet szerinte bele kellene építeni az AI-be. Ide tartozott például az okozati összefüggés, a költség-haszon elemzés stb. Yan LeCun, a New York-i Egyetem informatikusa, aki most AI-kutatást végez a Facebookon, sok fejlesztéspszichológussal nem ért egyet, és azt állítja, hogy ha a gyerekek napok alatt elsajátíthatják ezeket a készségeket, akkor a gépi tanulási algoritmusok is megtörténhetnek. Meggyőződése a tapasztalaton alapszik.

Képfelismerésen dolgozott, és már az 1980-as években azzal érvelt, hogy a kép funkcióinak azonosítására szolgáló, kézzel programozott algoritmusok szükségtelenné válhatnak. Harminc évvel később kiderült, hogy igaza van. A kritikusok azt kérdezték tőle, miért kell képezni a készségeket, ha építeni lehet. Azt válaszolta, hogy a beépítés nehéz, és ha nem teljesen érted, hogy valami működik, akkor az általad javasolt szabályok valószínűleg rosszak.

De Marcus rámutatott, hogy maga a LeCun beillesztette képfelismerési algoritmusaiba a 10 legfontosabb ösztön egyikét: a transzlációs invariancia, az objektum felismerésének képessége, bárhol is legyen a látómezőben. A transzlációs invariancia a konvolúciós ideghálózatok alapelve. Az elmúlt öt évben a képfelismerés központjává váltak.

LeCun szerint a transzlációs invariancia spontán módon is megjelenhet jobb általános képzési mechanizmusokkal. Folytatódik a vita arról, hogy az AI hogyan helyezhető el a spektrumon a tiszta tanulás és a tiszta ösztön között. Itt azonban gyakran figyelmen kívül hagynak még egy gyakorlati problémát: hogyan lehet ilyen vegyes gépet megtervezni és programozni. Még nem világos, hogyan lehet kombinálni a gépi tanulást és a neurális hálózati paraméterek milliárdjait a szabályokkal és a logikával. Arról sem, hogy miként lehet azonosítani a legfontosabb ösztönöket és rugalmasan programozni őket. Ez azonban nem akadályozza egyes kutatókat és vállalatokat abban, hogy megpróbálják.

Például az ausztráliai Sydney-i Új-Dél-Wales-i Egyetem Robotikai Laboratóriuma két emberi ösztönrel próbálja felszerelni a Toyota Humán Támogató Robotot (HSR), amelynek egy karja és egy képernyője van arc helyett. Először azt akarják megtanítani, hogy kisebb és könnyebb feladatokra bontsa a problémát, ahogyan a megoldást több lépésre osztanák. Ezt követően meg akarják adni a robotnak a feltételezések és célok megalapozásának képességét, miközben az emberek ösztönösen gondolkodnak mások szándékain. Hogyan reagálna például a HSR, ha valaki megkérné, hogy hozzon egy piros csészét, de csak egy kék csészét és egy piros tányért talál?

Szoftverük bizonyítja néhány emberi képességet, köztük a józan észt is, hogy piros tányér helyett kék csészét hozzanak. Más szabályokat azonban be kell programozni a szoftverbe. Például a mesterséges intelligenciának azt kell mondania, hogy a csésze szó fontosabb, mint a piros szó. Ideális esetben a robotnak szociális ösztönökkel kell rendelkeznie a személyes preferenciák gyors elsajátításához.

Más kutatók megpróbálják mesterséges intelligenciájukkal megadni a fizika intuitív ismereteit, amelyek a gyerekek látszólag rendelkeznek. Például a DeepMind tudósai kidolgozták az ún interakciós hálózatok. Ezek bizonyos feltételezéseket tartalmaznak a fizikai világról: vannak különálló tárgyak, amelyek jellegzetes kölcsönhatásokkal rendelkeznek. Ahogy a gyerekek az entitások interakciói révén gyorsan elemzik a világot, ezek a rendszerek is könnyen megtanulják a tárgyak tulajdonságait és a köztük lévő kapcsolatokat. Az eredmények arra engednek következtetni, hogy az interakciós hálózatok sokkal pontosabban képesek megjósolni például a doboz faláról visszapattanó gömbök viselkedését, mint egy általános idegi hálózat.

A kaliforniai székhelyű Vicarious robotszoftver-vállalat ezt a gondolatot még tovább fejleszti sémahálózatában. Ezek a rendszerek a tárgyak és az interakciók létét is feltételezik, de megpróbálnak oksági összefüggést is felvenni, amely összeköti őket. Szoftverük megtanul hátrafelé tervezni, a kívánt eredmény alapján. (Például nem akarom, hogy viszketjen az orrom - valószínűleg megkarcolódik.)

A kutatók összehasonlították módszerüket az Atari Breakout legkorszerűbb ideghálózatával, amelyben egy játékos ütőt mozgat, hogy visszapattanjon egy labdát, amely aztán ledönti a téglát a falról. A sémák hálózata megtanulhatja az okozati összefüggéseket, pl. arról, hogy a labda a téglákat érintkezésbe rúgja annak sebességétől függetlenül. Ezután mozgathatja a téglákat, vagy hagyhatja, hogy a játékos három golyóval zsonglőrködjön - a sémák hálózatának nincs szüksége további képzésre a játék megváltoztatása során. Egy másik hálózat nem sikerült.

Az egyik legnagyobb kihívást jelentő feladat a kutatók számára az ösztönök rugalmas programozása, hogy az AI képes legyen megbirkózni egy kaotikus világgal, ahol a szabályokat nem mindig tartják be. Például az autonóm autók nem támaszkodhatnak más vezetőkre, hogy szigorúan betartsák a közlekedési szabályokat. Ennek a kiszámíthatatlanságnak a kezelése érdekében Noah Goodman, a kaliforniai Palo Alto Stanford Egyetem pszichológusa és informatikusa segíti a valószínűségi programozási nyelvek (PPL) fejlesztését.

A szilárd számítógépes kódstruktúrák és a valószínűségi matematika kombinációjaként írja le őket, amely tükrözi az emberek logikai követésének módját, de figyelembe veszi a bizonytalanságot is: Ha a fű nedves, valószínűleg esett az eső, de talán valaki öntözött. Fontos, hogy a PPL kombinálható a mély tanulással. Goodman szerint a PPL nemcsak a fizikát és a logikát veszi figyelembe, hanem azt is, hogy az emberek miként kommunikálnak és kezelik az olyan bonyolult kifejezési formákat, mint a túlzás, az irónia és a szarkazmus.

Chloe körülbelül 10 éves koráig nem értheti a szarkazmust. De a kisgyermekek nyelvi érzése egyértelmű. Olyan szavakat és ötleteket ötvöznek, mint a lego kockák, összekeverik, adaptálják és lelkesen tesztelik őket szerte a világon. Hasonlóképpen idővel finomhangolják intuitív fizikai érzéküket. És így kell megtanulni a mesterséges intelligenciát.