A Microsoft néhány napja boldogan engedte rá a Tay nevű chatbotot a Twitterre, mondván: ott majd megtanulja, hogyan viselkednek az igazi hús-vér tinik. Hát, megtanulta.

Annyira, hogy a Microsoftnak egy nap után le kellett kapcsolnia a robotot, ugyanis az pillanatok alatt egy Hitler és Donald Trump imádó, zsidógyűlölő, rasszista faszkalappá vált, ami a Microsoftot sem tüntette fel a legjobb színben.

Az elképzelés egyébként az lett volna, hogy az emberek elkezdenek Twitteren beszélgetni a mesterséges intelligenciával, ami így folyamatosan fejlődik, akár csak egy gyerek, és pontosan ez is történt. A Microsoftnál viszont biztosan régen nézték utoljára ezt az úgynevezett internetet, így teljesen helytelenül mérték fel, hogy mennyire nagy az isten állatkertje, és milyen alacsony a kerítés, a robotra szabaduló troll hordák ellenében pedig Taynak esélye sem volt rá, hogy egészséges felnőtté cseperedjen.

A kísérlet intő jel lehet mindenkinek, aki mesterséges intelligencia fejlesztésére adja a fejét: ha nem akarjuk, hogy a robotok kipusztítsanak minket, elég lesz egy egyszerű szabályt betartani:

semmiképp se mintázd a robotodat az emberekről.

Támogatott és ajánlott tartalmaink

Kényelem és nyugalom az autópályán, izgalom és őrület a stadionban – BYD Seal U-val a magyar–skót-meccsre

Óbudán vár a fotókiállítás, amit nemcsak látni, hanem tapintani is lehet

150 000 táncoló robotfűnyíró: a technológia a fejlesztés mögött

További cikkeink a témában
Egyedi méretre szabott öltönyök, ingek azoknak, akik különlegesre vágynak
Hirdetés