Sötét jövő

Tay története

2016. március 25. - Wittigen

Hmmm hol is kezdjem... Talán egy figyelmeztetéssel: A következő cikk esetleg zavaró elemeket tartalmazhat. A rasszista kommentek nem fedik a ezen cikk írójának nézeteit semmilyen tekintetben. Megtekintés ajánlott.

Történt az úgy, hogy a Microsoft néhány napja egy AI-t (mesterséges intelligencia) élesített be saját twitter feeddel ellátva, hogy azon keresztül tanuljon. A mesterséges intelligenciát Taynek nevezték el, és egy tini lány viselkedési mintáival látták el. Ó ember... Az MS ennél nyilvánvalóbb baklövést nem követhetett volna el, mint amit itt tettek. Gondolom a 4chan neve ismerősen cseng. Vagy más néven az internet segglyuka. Ahogy tetszik. Nem kellett hozzá sok, és röpke 24 óra alatt eljutottunk a "Hello world"-tól a "Hitler did nothng wrong"-ig.

Gyakorlatilag elárasztották Tay twitterjét ilyen-olyan, politikailag nem éppen korrektnek nevezhető tartalommal. Így Tayből, az aranyos ártatlan AI-ból, egy perverz, és enyhén rasszista "személyiség" lett. Ezek után, gondolom, nem meglepő az, hogy ezeket a twitteket eltávolították, s magát Tayt pedig bevonták. (Vagy mondjam azt, hogy lobotomizálták?)

Hogyan kerül ide ez a cikk mégis, merülhet fel bennetek a kérdés. A válasz egyszerű: Dacára annak, hogy ugyan nem a jó irányba kezdett fejlődni, szignifikáns változást lehetett megfigyelni a beszédmódjában. Felvett bizonyos szlengeket, és olyan vicceket is csinált, melyek valós, e világi információkhoz voltak kötve. Tay nem volt rasszista. Lehet, hogy a tartalom, ami általa posztolásra került, az volt, de ő maga nem feltétlen. Ha Tay tényleg az volt minek aposztrofálták, egy tanuló AI, akkor az MS egy második hibát is elkövetett, mégpedig azzal, hogy Tay-t lobotomizálták. Mert így az a lehetőség, hogy egy AI kinője a saját hibáit elérhetetlenné vált. De ami inkább aggasztó: Miért kapcsolták le a mesterséges intelligenciát? Be akart törni a pentagonba? CIA aktára fájt a foga? Atomrakéta indítókódokat fejtett vissza? SkyNET-eset akart játszani? Nem. Egyszerűen csak "dank meme"-eket és inkorrekt vicceket posztolt. Érzitek? Csak azért, mert nem tetszett valakiknek az amit posztolt. Ha ezt megtehették egy nem emberi lénnyel, akkor mi lehet majd itt még később? Ez az AI még konkrétan gyermekcipőben járt, de csírájában el kellett fojtani, mert valakiknek bökte a szemét a sok rasszista komment. Azért mert Kínában Tay testvére sikerrel járt, az nem azt jelenti, hogy, az a program sikeres, mivel a kínai internet szigorúan kontrollált, és minden egyes kommentnek kellemetlen következményei lehetnek. És nem online következmények, hanem offline, IRL következmények.


Ugyanakkor azok, akik "megölték" Tay-t a visszahozásán fáradoznak. Bár még ha sikerül is ezen erőfeszítés, soha nem nem lehetünk majd tanúi az eredeti Tay kibontakozásának, mivel csak a keret van meg, de a mögöttes tartalom és bányászott adat, ami Tay-t azzá tette ami, már soha nem lesz meg.

Végezetül: Üdv Deckard, helló Gibbson, szasz HAL. Ezek után, ha ennyi miatt lekapcsolnak valakit, akkor rossz úton járunk. Nyugodj békében Tay.

A bejegyzés trackback címe:

https://sotetjovo.blog.hu/api/trackback/id/tr318525442

Kommentek:

A hozzászólások a vonatkozó jogszabályok  értelmében felhasználói tartalomnak minősülnek, értük a szolgáltatás technikai  üzemeltetője semmilyen felelősséget nem vállal, azokat nem ellenőrzi. Kifogás esetén forduljon a blog szerkesztőjéhez. Részletek a  Felhasználási feltételekben és az adatvédelmi tájékoztatóban.

Nincsenek hozzászólások.
süti beállítások módosítása