Sötét jövő

Nem tellt el egy újabb hónap és az algoritmusokat... bioterrorizmusra akarják használni???

Algoritmus által generált képek körül kialakult hacacáré - ötödik cikk

2023. január 29. - Wittigen

Foglalkoztunk azzal, hogy képet loptak, aztán azzal is, hogy máris korlátozni akarják a generálást. Aztán Esho rákontrázott még egyet a levelére egy másikkal, és pedig őszintén vakarom a fejemet, hogy most ezzel mit akarnak sugallni. Most épp arról van szó, hogy valakik DNS szintetizálnának rossz célra.
Mielőtt nekikezdünk, egy kis helyreigazítás. A második cikkben azt mondtam, hogy nem találtam nyomát azoknak a "vádaknak" amit Mrs. Eshoo felhoz a Stability AI vezérigazgatójának Discordon tett kijelentéseivel kapcsolatban. Na máshol megtaláltam, de még így is ferdít mindenki , többek között az az ember is akinek a blogján megtaláltam a képeket. Ami az NSFW képek generálását illeti, tényleg szerepel az általános szabályok között, hogy ne az ő kártyáikon generáld az NSFW képeket, illetve Emad látszólag tényleg ebben a kontextusban tette a kijelentését, hogy milyen kártyákkal működik:

Ennek ellenére még mindig amellett vagyok, hogy ez nem kizárólag arra vonatkozik, hogy csak és kizárólag ezekkel megy, hanem, hogy a selfhosted modell melyik kártyával tud együttműködni és, hogy mellékesen lehet NSFW képeket generálni. Azonban pár helyen téved a blog írója:

  1.  Az NSFW ugyan lehetne egy széles jelölés, azonban az interneten általában a poreszt jelöli, de jó hajlandó vagyok elfogadni hogy ide lehet sorolni más erőszakos tartalmakat, ugyanakkor nem ez a fogalom elsődleges lefedett területe, hanem mint mondtam, a pornográf tartalom.
  2. Miből gondolja, hogy képes lenne gyermek bántalmazást ábrázoló tartalmat generálni? Illetve definiáljuk, hogy mire gondol "childe abuse" alatt. Pornográf tartalomra? Fizikai erőszakra? Az SD-ből emlékeim szerint fizikailag kiszedték azt a kódrészletet, ami lehetővé tenné realisztikus gyerekek generálását, de még ha így is lenne, az ezt lehetővé tévő datasettet nem ők gyűjtötték össze, hanem a LAION illetve a Common Crawler cég, lehet náluk is kopogtatni. 
  3. Illetve megint előjönnek a toxikus és erőszakos tartalom féktelen terjedésével a szerveren, amire nem találok viszont nyomot, sem pedig képeket, erre három magyarázat van: lehet nincs, lehet annyi rakódott rá, hogy lehetetlen ilyet találni, lehet levakarták a szerverről az összeset. Szóval így ez alá nem támasztott állítás.

Összességében nem ártott volna több bizonyítékot mellékelni ezekhez az állításokhoz. Ennyit a helyreigazításról. És akkor nézzük Eshoo új levelét, amit ezúttal megint az NSA-nek és a OSTP-nek címzett. Lássuk mitől félünk most:

 

Tisztelt Sullivan tanácsadó és Prabhakar igazgató!

Azért írok, hogy felkérjem Önt arra, hogy foglalkozzon azzal a kettős felhasználású kárral, amelyet a teljesen nyílt forráskódú mesterséges intelligencia modellek okozhatnak a biológiai biztonság tekintetében. A kettős felhasználású mesterséges intelligencia-modellek nyílt forráskódú jellege, a csökkenő költségek és a DNS-szintetizáláshoz szükséges tudás szett, valamint a DNS anyagminta rendelésekre vonatkozó kötelező szűrési követelmények jelenlegi hiánya együttesen jelentősen növeli az ilyen modellekkel való visszaélés valószínűségét. Arra kérem az adminisztrációt, hogy a Biológiai Fegyverek Egyezményének (BWC) kilencedik felülvizsgálati konferenciáján aláíró partnereinkkel folytatott közelgő megbeszéléseibe foglalja bele a kettős felhasználású, nyílt forráskódú mesterséges intelligencia modellek irányítását, és vizsgálja meg az irányítási módszereket, például a alkalmazásprogramozási felületek (API-k) használata.

Az AI gyorsan elterjedt számos iparágban, egyszerre csökkentette a költségeket, növelte a termelékenységet és serkentette az innovációt. Ez egyre inkább igaz a biotechnológiára és a gyógyszeriparra. Az elmúlt évek technológiai fejlődése megkönnyítette a digitális betegadatok rögzítését és tárolását, így gazdag génállomány adatokból, egészségügyi feljegyzésekből, orvosi fotókból és egyéb beteginformációkból álló kincsesbányát hozva létre, mely a mesterséges intelligencia platformok számára kiválóan bányászhatók, a gyógyszerek gyorsabb és sikeresebb fejlesztése érdekében. A vállalatok mesterséges intelligencia segítségével új molekulákat is modellezhetnek gyógyszerkutatáshoz.

Ahogy azt a Stable Diffusion nyílt forráskódú, generatív modellel kapcsolatos korábbi levelemben kifejtettem, a megfelelő biztosítékok nélkül publikált mesterséges intelligencia modellek valós károkhoz vezethetnek. Ezek a kockázatok különösen sürgős figyelmet igényelnek a biológiai biztonság tekintetében. Ugyanazok az AI-modellek, amelyeket arra terveztek, hogy segítsenek új molekulák tervezésében a gyógyszerkutatáshoz, könnyen átalakíthatók és új, halálos molekulák tervezésére használhatóak. A mesterséges intelligencia bevezetése és alkalmazása a biotechnológiában és a gyógyszerkutatásban drámaian csökkenti a technikai küszöböt olyan mérgező anyagok vagy biológiai anyagok létrehozásában, amelyek jelentős károkat okozhatnak. A nyílt forráskódú mesterséges intelligencia az elsődleges út a tanuláshoz és az új modellek létrehozásához, és a káros toxinok létrehozásához szükséges adatkészletek könnyen elérhetőek, ami jelentős biológiai biztonsági kockázatokat jelent.

A Collaborations Pharmaceuticals, Inc. gyógyszerkutató cég kutatói nemrégiben demonstrálták ezt azzal, hogy egyszerűen megfordították nyílt forráskódú gépi tanulási modelljüket, és „ártalmatlan generatív modelljüket az orvostudomány hasznos eszközéből valószínűleg halálos molekulák generátorává” alakították át. Kevesebb, mint 6 óra alatt az MI megtervezte az egyik leghalálosabb idegmérget és sok más ismert vegyi harci szert, valamint új molekulákat, amelyek az előrejelzések szerint mérgezőbbek, mint a nyilvánosan ismert vegyi harci anyagok.

 A kettős felhasználású nyílt forráskódú mesterséges intelligencia modellek biológiai biztonsági kockázatai egyre súlyosabbak lesznek, mivel ezek a modellek lehetővé teszik a történelem legrosszabb kórokozóinak feltámasztásához vagy a sokkal rosszabbak létrehozását. Sajnos a tudományos közösségben már volt példa az ilyen jellegű visszaélésekre. 2018-ban kanadai kutatók felélesztettek egy mára kihalt vírust (lóhimlőt) mindössze 100 000 dollárért vásárolt postázott DNS segítségével. 2021 januárjában a kutatók publikáltak egy kutatást, amely lépésről lépésre ismerteti a COVID-19 és más törzsek laboratóriumi előállítását. További aggályok közé tartozik az egérhimlő szintézise, a poliovírus és az 1918-as influenzavírus előállítása laboratóriumi körülmények között. A mai hihetetlenül hasznos mesterséges intelligencia modelleket olyan feladatokhoz, mint például a fehérjék szerkezetének előrejelzése, hamarosan olyan modellek váltják fel, amelyek előrejelzik a fehérjék kölcsönhatását, a vírusok egészségre gyakorolt hatásait stb. Az ilyen modellek nemcsak a himlő előállítására használhatók, hanem még fertőzőbbé és halálosabbá alakíthatók. Az ilyen mesterséges intelligencia modellek szabályozatlan elterjedése tarthatatlan.

Az irányítatlan mesterséges intelligencia, amelyet megfelelő biztosítékok nélkül bocsátanak ki nyílt forráskóddal új aggodalomra ad okot: miként használhatják és fogják használni ellenfeleink. Biden elnök a közelmúltban bejelentett félvezető-technológia Kínának történő értékesítésére vonatkozó új korlátozásait, ami egy lépés az amerikai félvezetőipar védelme és a kínai katonai programok előrehaladásának lassítása érdekében. Önellentmondó lenne, ha bizonyos technológiák elérhetőségét korlátoznánk Kínának, miközben lehetővé tennék a technológia legnagyobb hatású termékének kormányzati felülvizsgálat nélkül történő átadását nyílt forráskódúvá tételen keresztül.

Ezek az aggályok felvetik a biztonságos, átlátható és megbízható mesterséges intelligencia szükségességét. Az adminisztrációnak ösztönöznie kell a politikai döntéshozókat, akadémikusokat, iparági szakértőket és tudósokat, hogy vegyenek részt nyílt párbeszédben az ilyen modellek által jelentett kockázatokról és a számítási eszközök következményeiről. E modellek használatának nagyobb láthatósága felhívná a figyelmet az élvonalbeli technológiák lehetséges kettős felhasználási vonatkozásaira. A tartalomellenőrzés, egy ingyenes tartalomszűrő, az alkalmazások felügyelete és a magatartási kódex számos további lépés közé tartozik, amelyet az ipar és az akadémia – az adminisztráció és a döntéshozók ösztönzésével – megtehet a felelős tudomány ösztönzése és a mesterséges intelligencia segítségével felfedezett gyógyszerekkel való visszaélés elleni védekezés érdekében. Végezetül: egy API használatának megkövetelése, amely kóddal és adatokkal kérésre rendelkezésre áll, nagymértékben növelné a biztonságot és a közzétett modellek felhasználási módjának ellenőrzését anélkül, hogy jelentős akadályokat okozna a hozzáférhetőségben. Az API-k: (1) blokkolhatják azokat a lekérdezéseket, amelyek potenciálisan kettős felhasználású alkalmazásokkal rendelkeznek; (2) ellenőrizhetik a felhasználókat, például ellenőrizhetik az intézményi hovatartozást; és (3) megjelölhet meg a gyanús tevékenységet.
Arra buzdítom Önt, hogy vizsgálja meg ezt és minden más életképes módszert a hatóságain belül annak érdekében, hogy csökkentse annak valószínűségét, hogy a nyílt forráskódú mesterséges intelligencia modellekkel való visszaélés biofegyverekez vezet.

Az AI-nak fontos alkalmazái területei vannak a biotechnológiában, az egészségügyben és a gyógyszeriparban, azonban továbbra is ébernek kell maradnunk a kettős felhasználású alkalmazások által az Egyesült Államokra jelentett nemzet és gazdasági biztonságára, valamint közegészségügyére gyakorolt lehetséges károkkal szemben, ugyanúgy, ahogyan azt tennénk fizikai erőforrások, például molekulák képletével vagy biológiai anyagokkal. E kockázatok mérséklése érdekében sürgetem az adminisztrációt, hogy a soron következő BWC felülvizsgálati konferenciáján megbeszéléseibe foglalja bele a kettős felhasználású, nyílt forráskódú mesterséges intelligencia modellek irányítását, és vizsgálja meg az irányítási módszereket, például az API-k használatának kötelezővé tételét.

Legnagyobb hálával,

Anna G. Eshoo

Szenátorunk ismételten bebizonyítja ezt, és hogy megint keveri a szezont a fazonnal. Az a baj, hogy ez a levél összemossa a civil szektort és ezzel együtt az SD-t meg a többi társát, valamint a privát/tudományos szektort az ő specializált algoritmusaival. Eshoo  alap példának a Stable Diffusiont hozza fel, majd utána olyan szoftverekről beszél, melyek feltehetően idősebbek annál, és még csak nem is nyílt forráskódúak, a hozzáférést meg jó drágán mérik, ha egyáltalán a gyógyszer ipari cégek adnak ilyet. Először is a Collaborations Pharmaceuticals nyíltforráskódú algoritmusa annyira nyílt és hozzáférhető, hogy az interneten sehol nem leled meg (legalább is nekem nem sikerült), hogy valójában belenézz a kódjába vagy a trenírozásra felhasznált adathalmazba. De merem feltételezni, hogy nem egy egyszerű text2img algoritmusról beszélünk, így nem meglepő, hogy a specifikusan orvosi adatokon etetett algoritmus képes nem csak gyógyszereket is tervezni hanem mérgeket is. Nem ez lenne az első eset hogy gyógyszerészetben ilyen algoritmust használtak, írtunk is egyről, ahol gyógyszerészek randidrogokat generáltattak. A végeredmény az lett, hogy amíg a tudósok ellenőrizték a molekulákat addig a drogdílerek kiterítettek 197 új drogot, de ebből a 197-ből 195-öt "megjósolt". Illtetve a példaként felhozott kanadai kutatók tényleg publikáltak egy papírt melyben a lóhimlőről értekeznek, de ők azért juthattak mintához postai úton, mert minő meglepetés megvoltak a megfelelő papírjaik ehhez. Azonban ezt úgy adja elő Eshoo, mintha egy egyszerű datasett cseréről lenne szó és a SD már rögtön az lépfene 25x halálosabb változatának molekulaképletét köpné ki, ami így és ebben a formában nemes egyszerűséggel nem igaz.

Itt megjegyezném, hogy egyébként a lóhimlős bulit a Tonix nevű gyógyszergyártó cég pénzelte, azzal az indokkal, hogy hatásosabb himlő elleni oltásokhoz vezethet, amire sok tudós, köztük a marburgi egyetem professzora Stephan Becker is erősen vakarja a fejét, ugyanis himlő ellen vannak kész és biztonságos oltásaink, nincs igény egy új és más vektorú kifejlesztésére. Akkor viszont marad a kérdés hogy mi célból lett pénzelve a kutatás, és lehet nem Átlag Bélát és az ő algoritmus használatát kellene gorcső alá venni, hanem a cégekét, ja, hogy azt senki nem akarja megkérdőjelezni? 

Ami pedig azt az állítását illeti, hogy nagyon enyhe az ellenőrzési folyamat amin keresztül genetikai példa adathoz lehet jutni, gondoltam rákeresek, és íme amit találtam. A NIH (National Institutes of Health) közvetlen linket tartalmaz több nyitott repóhoz, amit mindenféle különleges program nélkül is akár le lehet tölteni, és még csak régiólockolva sem vagy. Ugyanitt azonban fontos kiemelni hogy ezek a olyan repók melyet publikusan hozzáférhetőnek ítéltek a NIH szakemberei, szóval valószínűleg ahhoz hogy fegyvereket tervezz magadnak, ahhoz már ezek nem elégségesek. Azokhoz a repókhoz viszont igenis van kötelező ellenőrzési folyamat és KELL egy NIH engedély. A minimum feltételek között például szerepel, hogy lennie kell feletted egy operatív láncnak, ami felelősséget vállal érted, és kizárólag csak akkor kaphatsz ilyen zárt repókhoz hozzáférést, ha a kutatási területed igazolja ezt.

Eshoo néni előző levelét azzal lehetne összegezni, amit egyik olvasónk kommentelt: a kongresszusnak gyakorlatilag azzal van baja, hogy Átlag Béla is hozzájuthat és használhat ilyen modelleket, nem csak a nagy cégek. Ennek a levélnek az előszavában megint ráerősítenek erre a tényre. Gyakorlatilag felejtsd el a self hosted modelleket, csak központilag hostolt és lelőhető szerviz az elfogadható, ami egy szabályozott csatornán keresztül érhető el, melynek a teljes forgalmát ellenőrizhetik. És az utolsó előtti bekezdésben elő is hozakodnak javaslatokkal, hogy miként lehetne kontrollálni ezt az egészet, természetesen a nemzetbiztonság égisze alatt: használjon mindenki mindenféle API-okat, amit aztán nyilván a megbízható és baráti NSA működtetne, aki a Prizma projektért is felelt. De valójában amire alkalmas lenne az API jórészben a NIH már eleve elvégzi, mikor olyan adatbázisokhoz szeretnél hozzáférni. De ha ennyire félünk, akkor ideje a Photoshop mellé és gardedámot állítani, mert ugye azt is lehet illegális tevékenységre használni, sőt állítsunk minden barkácsáruház mellé terror elhárítókat, mert az ott engedély nélkül megvehető eszközökkel is lehet embert ölni. Nem az eszközt kell szigorítani, hanem a trenír adathoz való jutást kell szigorúbban ellenőrizni. Az hogy az ilyen modellek most rávilágítanak arra, hogy magas ívből tettek szükséges biztonsági óvintézkedések megalkotására vagy frissítésére, nem úgy kell pótolni, hogy agyon nyomod az ilyen generáló algoritmusokat.

via.: Eshoo House

 

A bejegyzés trackback címe:

https://sotetjovo.blog.hu/api/trackback/id/tr5318000594

Kommentek:

A hozzászólások a vonatkozó jogszabályok  értelmében felhasználói tartalomnak minősülnek, értük a szolgáltatás technikai  üzemeltetője semmilyen felelősséget nem vállal, azokat nem ellenőrzi. Kifogás esetén forduljon a blog szerkesztőjéhez. Részletek a  Felhasználási feltételekben és az adatvédelmi tájékoztatóban.

Nincsenek hozzászólások.
süti beállítások módosítása