Sötét jövő

Gyűlölöm a mesterséges intelligenciát...

2021. november 28. - Wittigen

Pontosabban a mainstream médiában elterjedt koncepcióját. 5 év céges oktató anyag után egy dologban nagyon jó lettem, hogy felismerjem a ún.: buzzword-öket, melyek szépen hanoznak de semmi nincs mögöttük, és a céges világban az AI/MI pontosan egy ilyen dolog. Minden MI még az is ami nem rendelkezik semmivel, de azért benne van a brossúrájában, hogy AI enhanced. Ezt gyűlölöm.

Mi a mesterséges intelligencia? Több irányból megközelíthetjük a definíciót, de a legegyszerűbb, ha a sci-fi által felvázolt képet használjuk, ugyanis mindenkinek az fog az eszébe jutni. És vitatkozhatsz, hogy "de hét Wittigen, a golyóálló mellény valójában lövedék álló mellény" (és ez nem élcelődés kedves olvasóm, akivel ezt a témát beszéltük, csak ez a legjobb példa), amire nemes egyszerűséggel az a válaszom, hogy a köznyelvet ez az apró tény nem érdekli. Szóval, egy MI egy olyan "robot" melynek önálló akarata és személyisége van, és általában a puszta tényekre alapozik, és döntéseket tud hozni (ha érzelmei vannak az rég rossz, vagy nagyon speciális helyzet). Ha visszagondolunk az elmúlt pár évre és felhánytorgatunk neveket: Cleverbot, Tay, ezek egyike sem igazi AI. Az első nem volt más mint egy túlhízlalt kérdezz-felelek gép (most az is kérdéses, hogy nem random usereket kötögetett össze, és vakon cseteltél valakivel), ami ugyan választ tud adni kérdéseidre de semmiképpen nem mérlegel, sem pedig elemez kontextust, így a tudatos döntésről egyáltalán nem beszélhetünk. Aztán ott vannak az ilyen-olyan "AI enhanced" kütyük mint a telefonom Ai enhanced kamerája vagy a Kargu drón, ahol annyi az AI, hogy képes önmagától akadályt felismerni ÉS kikerülni ha kell, de ez megint nem aktív döntéshozatal, hanem előre trenírozott adatok alapján történő alakzat felismerés és elkerülés, amire egy majmot is meg lehet tanítani. Innentől a majom is mesterséges intelligenciának minősül mert képes felismerni formákat és elkerülni ha szükséges? Értem, hogy ezek a válaszolgató gépek vezetnek majd el egyszer, majd valamikor a távoli jövőben, de nem most és nem is pár év múlva. Szóval sajnálattal kell közölnöm mindenkivel, ilyen nincs, és kanyarban sem vagyunk, bármennyire is szeretném.

Node mi is indította el a cikket valójában. Ja igen, a raszista MI esete. Immáron a sokadik. Ugorjunk vissza egy picit az előző témánkhoz, a túlhízott válaszológépekhez. Ezek működéséhez egy hatalmas adathalmazra van szükség, és hát hol talál az ember ilyet? Persze, hogy az interneten, és mekkora erővel hat ha ezt összekötöd interaktivitással... gondolta ezt az MS is, mikor bekötötte a 4chan után a lehető legrosszabb helyre trenírozni a Tay nevű (azóta lobotomizált, majd nemsokkal később törölt) válaszológépüket. Szóval kanyarodjunk vissza ismételten Delphire a rasszista hibridünkre. Ki nem találnátok, hogy mi volt (az ebben az esetben ugyan nem interaktív) adat forrás. Hát a Reddit "Én vagyok a seggfej?" aloldala, ami ugyan reakciókban gazdag de a hasznossága megkérdőjelezhető machine learning vonatkozásban, ugyanis a nyelvi apróságok fontosak. És milyen meglepő Delphi seggfej válaszokat adott mivel algoritmus meg ezeket a nyüansznyi dolgokat ignorálta (vagy nem jól implementálták a GAN-t, de erről később). Egy hozzáadott mondatrész komplettül megváltoztatta a végeredményt, ami bizonyítja, hogy a gép kontextust sem tud elemezni, de azért hívjuk mesterséges intelligenciának.

Voltak még "vicces" válaszok kérdésekre, amik nem ugyan azt a végeredményt hozzák, mivel kigyomlálták. Hasonló dolog történt az Amazon hasonlóan rasszistának/hímsovinisztának titulált értékelő gépe esetében is, aminek egyszerű volt a feladata: értékelni a jelentkező munkásokat a már ott dolgozók alapján, és mily meglepő, egy férfiak által dominált munkaterületen a férfiakat hozta ki győztesnek. Mert a puszta adatok ezt hozták ki, de a média máris ráragasztotta a rasszista jelzőt, mert jól hangzott. Ez önmagában is érdekes jelenség, hogy ha egy ilyen gép kicsit is kileng, és nem "elfogadható" választ ad valamire, a megoldás az, hogy lekapcsoljuk (bár az Amazon esetében azért próbálták kigyomlálni a problémát, majd a legvégén azt a projectet is elhagyták, mert megoldhatatlannak tűnt, Delphi-t meg tovább fejlesztgették), nem pedig az, hogy tovább trenírozod. Idézném édesapám egyik (számomra) örök érvényű mondatát: a számítógép nem tud helyetted gondolkozni, azt teszi, amit mondasz neki. Szóval ha a felhasznált data set az internet bármely pöcegödréből származik, akkor ne csodálkozzunk, ha a pöcegödör visszaböfög ránk, és értelmét veszti Delphi alap koncepciója: hogy morális és etikai iránytű legyen. Szóval miért volt rasszista a robi, ha az Amazon/Delphi fejlesztői maguk választották a data sett-et amin gyakorlatoztatták a gépeiket? A Delphi feltehetően egy GAN (general adversial network) alapú masina, mely technikailag kettő "MI"-ből áll. Egy generálja a választ a betáplált datasett alapján, a másik meg megpróbálja eldönteni, hogy mi a stájsz, mennyire valós az adott válasz. A GAN alapú gépek nagyon jól remekeltek kötött szabályrendszerű terepen (pl volt egy Star Craft menet, amit két MI vezérelt le, és ott teljesen jól működött, hogy A MI a betáplált adatok alapján taktikákat talált ki, melyre B MI válaszlépésekkel állt elő. Azonban ez a Delphi esetében nem sikerült, mert mint ahogy azt láthatjátok, a kontextusra nem lát rá, innentől a dolog regresszálódik egy egyszerű neural machinera, mely emulálja az AITA subreddit érzését (mellesleg elég sikeresen). A végén azonban oda jutunk, hogy egy gépet nem lehet pusztán megtanítani moralitásra, illetve, de csak iszonyat idő és türelem kell (dacára a dolog "egyszerűségének" még nem értünk el sikert). Egy gépet egy dologra egyenlőre nem lehet megtanítani, az pedig a független moralitás, mert mindig függő lesz az őt programozó, és a datasettet kiválasztó ember döntésitől, amire aztán később alapoz (a helyzeten meg abszolút nem segít, ha kétes minőségű alappal szolgálsz). Ezért kell megválogatni, hogy mit etetünk meg egy ilyen géppel. Viszont ez meg magával hordozza azt problémát, hogy ha túl egyengeted az útját, kiválogatod az információt amit feldolgozhat, ami alapján döntést hozhat, akkor befolyásolod a válaszadási folyamatot és torzítod a válasz tisztaságát, és ezt nem tudom, hogy hogyan lehetne feloldani. A másik probléma azonban az, ha nem végzel ellenőrzést a gép felett, majd az ilyen alapon trenírozott gépet szabadon engeded és használod, akkor az tényleg kétes, esetenként pedig hibás döntéshez vagy végeredményhez vezet.

Konklúzió: nagyon messze vagyunk egy valós ai-tól, sőt egyáltalán kérdéses hogy valaha el fogunk e érni odáig, ha, még azelőtt lekapcsoljuk a gépeket, mielőtt feltehetnék a kérdést: "Mi vagyok én?", és az se segít a helyzeten, hogy a média ugrik, mint tyúk a langyos takonyra, ha a kellőnél több por csúszik a szerkezetbe.

A bejegyzés trackback címe:

https://sotetjovo.blog.hu/api/trackback/id/tr3216758272

Kommentek:

A hozzászólások a vonatkozó jogszabályok  értelmében felhasználói tartalomnak minősülnek, értük a szolgáltatás technikai  üzemeltetője semmilyen felelősséget nem vállal, azokat nem ellenőrzi. Kifogás esetén forduljon a blog szerkesztőjéhez. Részletek a  Felhasználási feltételekben és az adatvédelmi tájékoztatóban.

Nincsenek hozzászólások.
süti beállítások módosítása