Sötét jövő

Nem kellett egy hónap és már korlátozni akarják a kép generálást

Algoritmus által generált képek körül kialakult hacacáré - második cikk

2022. december 12. - Wittigen

Az előző cikkben ott hagytuk abba, hogy ugyan szükség volna, de nem nagyon lehet korlátozni a képgeneráló szoftverek terjedését, hacsak nem egyből szélsőséges irányba tolódunk el.

Kezdjük egy pici helyreigazítással, az ESHOO nem egy szervezet rejt, hanem egy embert, aki egy kongresszusi jelölő bizottság vezetője, az ő neve pedig Anna G. Eshoo. Szóval Mrs. Eshoo írt egy szívhez szóló levelet az NSA-nak (tudjátok, akinél kibukott a Prizma projekt és a megfigyelések) és az OSTP-nek (Office of Science and Technology Policy), melyben a két vezetőt gyakorlatilag arra sürgette, hogy minél előbb foglalkoznak a "nem biztonságos" modellek interneten való terjedésének jelenségével. Nézzük a levelet. Az eredetit itt és itt olvashatjátok. 

Tisztelt Sullivan Tanácsadó és Nelson igazgató!

Azért írok, hogy kifejezzem komoly aggodalmamat a Stable Diffusion modell Stability AI általi közelmúltbeli felelőtlen publikálása miatt. Határozottan sürgetem Önt, hogy kezelje ezt és a hasonló nem biztonságos kiadásokat az Ön hatáskörén belüli bármely hatóság és módszer segítségével, beleértve az exportellenőrzést is, és kérem, hogy tájékoztassa hivatalomat azokról a további hatóságokról, amelyekre a végrehajtó hatalomnak szüksége lehet a probléma megoldásához.

2022. augusztus 22-én a Stability AI kiadta Stable Diffusion néven nyílt forráskódú, szövegről képre generáló modelljét. Az OpenAI DALL-E 2-vel ellentétben a Stable Diffusion modellje bárki számára elérhető, és nincsenek benne korlátozások. Ebből kifolyóan azonnal visszaéltek a modellel a megjelenése után. Stability AI tudta, vagy tudnia kellett volna, hogy a Stable Diffusion-nel vissza fognak élni, és nem tett észrevehető lépéseket az ilyen visszaélések elleni védekezésre a kiadás előtt. Egy esetben a Stability AI még további útmutatást is adott a modellel való visszaéléshez.

A nyílt forráskódú szoftver megjelenését követően több online platformon is megjelentek a Stable Diffusion által készített, erőszakosan megvert, ázsiai nőkről készült fényképek. Felmérések indikálják, hogy a 4chan oldalon több fórum posztot is szentelnek. Stable Diffusion által generált pornográfiának, amelyek némelyike valós embereket ábrázol. A Stability AI igazgatója, Emad Mostaque, Discordon azt mondta a felhasználóknak, hogy aki NSFW agy egyéb sértő dolgokat akar generálni, azt majd a saját videókártyáján, amikor a modell megjelenik. Eztuán Mostaque elmondta a felhasználóknak hogy pontosan milyen videokártyák lesznek kompatibilisek a modellel, annak érdekében, hogy azt tiltott tartalom generálására használják. Olyan tartalmakéra, melyről Mostaque tudta vagy tudnia kellett volna hogy illegális tartalom generálásról is szó lesz.

Sajnos a Stable Diffusion használatával illegális vagy más módon potenciálisan veszélyes képek keletkezésének mértéke nyílt forráskódú jellege miatt nem ismert, de valószínű, hogy 18 év alatti valós személyekről készült pornográf jellegű kép egyes felhasználók gépein, és ezáltal piacot teremtettek a Stable Diffusion által generált kiskorúak illegális ábrázolásai, valamint más illegális tartalmak számára. Ugyan a szoftver tartalmaz olyan szubrutint, mely megpróbálja észlelni és blokkolni a sértő vagy nemkívánatos képeket, de ez az eszköz könnyen megkerülhető a kód módosításával. Ez azt jelenti, hogy a Stable Diffusion felhasználható – és állítólag használták is – olyan képek készítésére, amelyeket a DALL-E 2 jelenleg blokkol, beleértve a propagandát, az erőszakos képeket, a pornográfiát, szerzői jogokat potenciálisan sértő képeket, valamint a dezinformációs és félretájékoztatási kampányokhoz használt képeket.

Jelenetések azt sugallják, hogy a cég finanszírozási célokra bocsátotta ki a nem biztonságos modellt, mivel jelenleg tőkeemelésről tárgyal, és együttműködést épített ki „kormányokkal és vezető intézményekkel”. Az AI-hoz való hozzáférés demokratizálásának híve vagyok, és úgy vélem, nem szabad megengednünk, hogy azok, akik nyíltan nem biztonságos modelleket publikálnak az interneten profitáljanak gondatlanságukból. Az ilyen és ehhez hasonló algoritmusokhoz való hozzáférés megkönnyítése segíthet enyhíteni a nem biztonságos modellek kiadására vagy bevezetésére irányuló ösztönző erőket, és ezt a feladatot a Kongresszusi Mesterséges Intelligencia jelölőbizottságában betöltött vezető szerepem valamint a jogszabályaim révén vezettem, hogy részletes ütemtervet dolgozzak ki arra vonatkozóan, hogyan az Egyesült Államok hogyan építhet, telepíthet, irányíthat és tarthat fent egy nemzeti kutatási felhőt és a kapcsolódó kutatási erőforrásokat annak érdekében, hogy az AI-rendszereket biztonságosabbá és etikusabbá tegyék.

Míg értékelem a Stability AI mesterséges intelligenciákhoz való hozzáférés demokratizálására irányuló általános célkitűzését, de azokat a kettős felhasználású eszközöket, melyek olyan valós károkhoz vezethetnek, mint a gyermekpornográfia, a félretájékoztatás és hamis hírek, megfelelően irányítani kell. Ugyanúgy, ahogy a nukleáris információk és anyagok egyaránt vezethetnek energiatermeléshez és szörnyűséges atrocitásokhoz, az AI-modellek hasonlóan kettős felhasználású alkalmazásokat tesznek lehetővé digitális környezetben.

Jelenleg a már létező export szabályzatra támaszkodunk a különböző típusú kettős felhasználású műszaki adatok kiadásának ellenőrzésére, és arra kérem Önt, hogy vizsgálja meg annak lehetőségét, hogy ezeket a rendelkezéseket alkalmazzuk a nem biztonságos kettős felhasználású mesterséges intelligenciamodellek kiadásának szabályozására. Az egyre inkább digitálissá váló világban fokoznunk kell az éberséget az egyéneket és a társadalmat érő digitális ártalmakkal szemben.

Az általam kifejtett okok miatt nyomatékosan kérem, hogy a Stable Diffusion-hoz hasonló nem biztonságos mesterséges intelligencia-modellek kiadásával foglalkozzon az Ön hatáskörébe tartozó hatóságok és módszerek alkalmazásával, beleértve az exportellenőrzést is, és tájékoztassa hivatalomat minden további hatóságról, a végrehajtó hatalomnak esetleg tájékoztatni kell a kialakult helyzetről.

Őszinte meglepődésemre van része ahol egyet értek a levéllel, de azért akad benne néhány ici-pici hibácska. Nevezetesen az, hogy a legtöbb állítás nincs alátámasztva. A fő vádak pontosan a következő kettő

  • A "különböző online platformokon megjelentek erőszakosan megvert ázsiai nők képei"
  • A Stability AI vezérigazgatójának Discordon tett kijelentései

Egyáltalán nem kerültek alátámasztásra. Ugyan a PDF levél alján van lábjegyzet, de az főleg más tech hírekkel foglalkozó oldalak cikkeit linkeli máshová a levélben, az ilyen kijelentéseket semmi nem támasztja alá, se archive link, sem megjegyzés, hogy a vádakat igazolóan lásd ezt és ezt a pdf vagy bármilyen csatolmányt. Megpróbáltam utána járni, miféle platformokra gondolhattak, de nem jártam sikerrel. Részben azért is, mert a 4chan egy örökké változó pokolbugyor, az a kevés archiváló oldal ami volt az már rég nem működik, ezért nem találtam egy tükröt a /b vagy épp a /pol elmúlt hónapjairól. A google/yandex/bing kereséseim pedig nem hoztak eredményt, még hírt sem mainstream médiában. Nem szép szenátornő, nem szép, főleg, hogy a pornó és a hamis hírek ellen akarunk harcolni. Nézzük a Discordos állítást. Beléptem a Stable Diffusion hivatalos DC csatornájára, hogy megpróbáljak utána nézni, de különféle kereső szavakkal nem akadtam nyomára a konkrét kijelentéseknek. Így bizonyíték hiányában ez megint csak egy kapufa. Ettől függetlenül, nem gondolom, hogy Mostaque azért mondta el a kompatibilis kártyák típusait, hogy elősegítse a "illegális" tartalmak generálását, hanem ezek az alkalmazások egy kimondott kártya típus és annak fizikai felépítésének előnyeit használják ki, így szerintem ez szimpla információ adás volt, a hivatalos DC csatornán kimondottan tiltják az NSFW posztolgatást. 

Ami a gyerekpornó generálást illeti, ott a félelem valós, mert ha van megfelelő alapanyag, akkor igeni meg lehet tanítani ezeket az algoritmusokat, és ugyan ez még nem elterjedt, vagy csak számunkra átlag ember számára nem látható még a jelenség, de ahogy azt az előző cikkben is említettem egy másik fajtája, a fiktív pornográfia mely kiskorúakat jelenít meg (közismertebb nevén lolicon) már más tészta. Na most a lolicon legalitását tekintve igen kesze-kusza, van ahol legális van ahol nem, de a lényeg, hogy a rajzolt pornográfiához egy egyszerű google/bing/yandex kereséssel lehet anyagot találni, míg viszont (és itt hál istennek) ahhoz hogy valaki valós fényképeket szerezzen sokkal több akadályt kell megugrani bár ebben az alakjában ez sem igaz, mert tekintve, hogy egyesek a gyerekük minden pillanatát megosztják a közösségi platformokon onnan is tekintélyes gyakorló adatot lehet összeszedni. Viszont ennek megakadályozása nem a modellek korlátozásában rejtőzik, hanem az alap probléma felgöngyölítésében és elhárításában, nevezetesen a pedofília elleni harcban van a megoldás. És ha már itt tartunk, ami a pornó generálást úgy általában érinti, nem ez a szoftver engedte ki a dzsinnt az üvegből, hanem az a "kontrollált keretek között" kieresztett deepfake appok. Mióta a levél megjelent, azóta debütált a SD egy új változata, mely több újítást is tartalmaz, többek között eltávolították az NSFW tartalmak és a gyermekekre vonatkozó kulcsszavak használatát, és amúgy a modellben a lehetőséget, hogy fotórealisztikus kiskorúakat vagy ahhoz hasonlót lehessen generálni, ez is mutatja, hogy ők sem feltétlen akarnak kötelet tenni a saját nyakukba, ami egy nagyon jó irány a fejlesztőktől, viszont a régi verziókat még mindig el lehet érni, és az újba is vissza lehet etetni a már létező NSFW trenírozó adatokat egyes userek szerint. Úgyhogy ott vagyunk ahol a part szakad. Sajnálatos módon nagyon úgy néz ki, hogy valakik meg fogják mondani, hogy mit generálhatsz és mit nem. Természetesen a gyerekporesz egy HATALMAS nem-nem, de a szimplán pornóval és más művészek utánzásával mi a baj? Illetve még két dolog ami iszonyatosan zavar: ki fogja megmondani, hogy mi számít biztonságosnak? Majd azok akik évekkel ezelőtt a D&D-t sátánistának, vagy a Twisted Sistert szadomazochistának akarták bélyegezni? Illetve, az utolsó és szerintem a szimpla pornónál és gorenál nagyobb probléma: miért csak kizárólag hírességek és vagy politikai személyek kerülnek megemlítésre, mint az ilyen algoritmusok elszenvedői? Talán a kis emberen is lehet olyan foltot ejteni melyik tönkreteszi az életét? Véletlenül sem fordult már elő

Hogyan lehetne egyáltalán megakadályozni bizonyos képek generálását, az online modellek szűrőin kívül? Nem látok rá teljesen jó megoldás mely bombabiztos lenne, SD esetében főleg azért sem mert a kód hozzáférhető és módosítható (egy random licensz meg senkit nem állított még meg). Minden olyan megoldás amivel elő fognak állni kikerülhető azzal, ha valaki ért hozzá és az előző modellek segítségével visszaállítja a kiszedett funkciókat. Az is egy rossz irány, ha bármilyen szoftvert folyamatos online ellenőrzéshez kötünk és csak akkor működik ha effektíve haza tud telefonálni, és átfuttathatja a szavakat és egyebeket az anyacég ellenőrzésén, amit remélem mondanom sem kell miért probléma. Részben azért mert az ilyen "védelmek" többször szartak bele a levesbe mintsem voltak hasznosak. Illetve a rajongók bebizonyították már, hogy mindenféle dokumentáció nélkül képesek visszafejteni szolgáltatások működési elvét, és így életre kelteni néhány játék rég leállított multiplayer részeivel. Így ez is kikerülhető. Az egyetlen metódus ami ténylegesen megoldás lenne az az, hogy a szoftverek a datasetként felhasznált képeket képzés közben aktívan felismerjék és szűrjék. Ehhez azonban az kellene hogy az algoritmust elő képezzék tiltott fogalmakról szóló képekkel. A valós gyermekpornográfia megakadályozása ebben az esetben azt igényelné hogy a modellt valamilyen szinten megismertessék valós gyermekpornográf tartalmakkal ezáltal a létezését és a létrehozását is illegálissá tennék, és egy nagyon jó eszközt torpedóznának meg végleg. Mert amúgy az ilyen képgenerálók lehetnek jó eszközök, sőt egyes alkotóknál láttam már, hogy kísérleteztek azzal, hogy a saját munkájukat gyorsítsák vele. Szóval így állunk. A helyzet az, hogy a jognak kellene nagyon hamar fejlődnie, amit a természetéből adódóan nem fog tudni, mert idő kell ahhoz, hogy kialakuljanak folyamatok. Éppen ezért kellene elkezdeni lépésről-lépésre, főleg a cégek megakadályozásán, hogy csalásra használják (ezt már részleteztük az előző cikkben), és utána lehet szépen lépésről lépésre kialakítani egy jogi frameworkot, ami tud kezdeni valamit az egész jelenséggel. De az nem megoldás, hogy felülről rátehénkedsz, mert az megöli a kreativitást. A végére még megosztanám egyik szerkesztőm véleményét az egész dologról, mert szerintem tűpontos: 

A tisztelt Mrs Aztsetudomki nem akarja esetleg betltani a Photoshopot, vagy rákényszeríteni a Koh-I-Noor-t, hogy ne áruljon olyan ceruzát, amivel lerajzolhatom Kim Kardashiant ahogy lófasszal erőszakol csecsemőket? Az egész felvetése hibás. Az, hogy a rajzolt gyerekpornó mennyire illegális, az valóban vitatható, de ebbe most ne menjünk bele. De nem tilthatsz be valamit, azért, mert alkalmas arra, hogy bűnt kövessenek el vele, és valaki már megtette. Kurva sok embert öltek meg háztartási eszközökkel, mégse jutott eszébe senkinek, hogy tiltsuk be a gereblyéket.

A bejegyzés trackback címe:

https://sotetjovo.blog.hu/api/trackback/id/tr8817970858

Kommentek:

A hozzászólások a vonatkozó jogszabályok  értelmében felhasználói tartalomnak minősülnek, értük a szolgáltatás technikai  üzemeltetője semmilyen felelősséget nem vállal, azokat nem ellenőrzi. Kifogás esetén forduljon a blog szerkesztőjéhez. Részletek a  Felhasználási feltételekben és az adatvédelmi tájékoztatóban.

Nincsenek hozzászólások.
süti beállítások módosítása