A Microsoft néhány napja boldogan engedte rá a Tay nevű chatbotot a Twitterre, mondván: ott majd megtanulja, hogyan viselkednek az igazi hús-vér tinik. Hát, megtanulta.

Annyira, hogy a Microsoftnak egy nap után le kellett kapcsolnia a robotot, ugyanis az pillanatok alatt egy Hitler és Donald Trump imádó, zsidógyűlölő, rasszista faszkalappá vált, ami a Microsoftot sem tüntette fel a legjobb színben.

Az elképzelés egyébként az lett volna, hogy az emberek elkezdenek Twitteren beszélgetni a mesterséges intelligenciával, ami így folyamatosan fejlődik, akár csak egy gyerek, és pontosan ez is történt. A Microsoftnál viszont biztosan régen nézték utoljára ezt az úgynevezett internetet, így teljesen helytelenül mérték fel, hogy mennyire nagy az isten állatkertje, és milyen alacsony a kerítés, a robotra szabaduló troll hordák ellenében pedig Taynak esélye sem volt rá, hogy egészséges felnőtté cseperedjen.

A kísérlet intő jel lehet mindenkinek, aki mesterséges intelligencia fejlesztésére adja a fejét: ha nem akarjuk, hogy a robotok kipusztítsanak minket, elég lesz egy egyszerű szabályt betartani:

semmiképp se mintázd a robotodat az emberekről.

Támogatott és ajánlott tartalmaink

Magyar lakásba magyar bútort – és ne is akármilyet, minőségit!

Magyarország ásványvíz-forrásai túracélpontnak is tökéletesek

Ezekből a fotelekből még nagyobb élmény filmet vagy meccset nézni

Szinte papírvékony, mégis brutális teljesítményre képes a laptop, ami maga a stílus
Hirdetés