Sok globális problémát figyelmen kívül hagy az MI etikusnak szánt, ún. emberközpontú megközelítése
Épp egy éve, november 30-án tették hozzáférhetővé a ChatGPT-t. Ennek kapcsán is aktuális a téma, az MI etikusan működik-e. A Corvinus kutatása szerint számos alapvető globális problémát – például a szegénységet, éhezést, vízhiányt, háborúkat, egyenlőtlenségeket – sem vesz kellő hangsúllyal figyelembe még a mesterséges intelligencia etikusnak szánt, úgynevezett emberközpontú megközelítése sem. Ehelyett csupán főképpen a nemzeti határokon belüli társadalmi kihívásokra keresi a választ – állapítja meg a Budapesti Corvinus Egyetem friss tanulmánya öt nyugati egyetem témába vágó szövegeinek tartalomelemzése alapján.
Visszatérő kritika a társadalomtudósok részéről, hogy az etika túl kis szerepet játszik a mesterséges intelligencia fejlesztésében. Ennek megoldására vezették be az emberközpontú mesterséges intelligencia (human-centered AI, HAI) koncepcióját, amelyet mára számos projekt, kutatóközpont, egyetemi kurzus, vállalat használ, de mindegyikük egy kicsit másképp. A Budapesti Corvinus Egyetem Szociológia tanszékén arra vállalkoztak, hogy feltérképezzék, hogyan értelmezik ezt a fogalmat öt tekintélyes, a fejlett világhoz, a globális északhoz tartozó egyetemen a témával foglalkozó intézetek a honlapjaikon publikált szövegeik alapján. Vicsek Lilla és Tóth Tamás tanulmánya május végén jelent meg a Routledge kiadó Algorithmic ethics című szakkönyvében, Michael Filimowicz szerkesztésében. A vizsgálatba a Bolognai Egyetem, a Northwestern Egyetem, a Marylandi Egyetem, a Stanford Egyetem és az Utrechti Egyetem került be.
A szegény régiók és a kiszolgáltatottak szükségletei alig jelennek meg
A tanulmány összegzése szerint minden intézmény egyedien használja az emberközpontú mesterséges intelligencia fogalmát, csak annyiban közös az értelmezésük, hogy emberek igényeivel hozzák kapcsolatba.
„Az akadémiai szféra felismerte, hogy humanista törekvéseik bizonyítására a technikai megoldások helyett leginkább támogató szemléletű tartalmat kell kínálniuk. Ez fontos eredmény, mert a korábbi, piaci szektorok etikai irányelveit vizsgáló kutatások épp a technikai megoldások dominanciáját mutatták ki” – mondta Vicsek Lilla, a Corvinus szociológus kutatója, a tanulmány első szerzője.
A kutatók szerint a vizsgált akadémiai közeg ennek ellenére nem foglalkozik több alapvető kérdéssel. Először is, az elemzett szövegekben gyakran homogén csoportként kezelik az emberiséget, és azt feltételezik, hogy minden társadalom ugyanazokkal a problémákkal küzd, pedig a társadalmak különböző szegmenseiknek eltérő érdekeik és igényeik lehetnek és a különféle régiókban gyakran különböző gondokkal szembesülnek. Másodszor, az emberközpontú mesterséges intelligenciával foglalkozó írások alapvetően a jómódú, globális észak szükségleteihez igazodnak. Bár a vizsgált intézetek a helyi, nemzeti határokon belüli marginalizált közösségek kihívásait gyakran számontartják, de országközpontúak: általában figyelmen kívül hagyják a globális dél elfogadhatatlan életkörülményeit, a szegény régiókban jelen lévő problémákat, például a vízellátás hiányát, az éhezést, a veszélyes munkahelyeket, a betegségeket és a háborúkat, amelyek Afrika jelentős részét, valamint Ázsia és Dél-Amerika nagy részét érintik.
Pedig ha a globális délre is kiterjedne a figyelem, és a mesterséges intelligenciát például a vízellátás fejlesztésére használnák – többek között a rossz infrastruktúrák részletes felmérésére –, azzal érdemben lehetne segíteni sok kiszolgáltatott csoport életminőségén, egyáltalán, a túlélési esélyein.
„Még mindig a fehér férfiak domináns szemlélete uralkodik az elemzett szövegekben. A sokszínűbb kutatócsoportok támogatása elengedhetetlen, ha komolyan vesszük, hogy az emberközpontú mesterséges intelligencia orvosolni szeretné egyes egyenlőtlenségeket rasszizmust” – mondja a szociológiai kutatásról Vicsek Lilla. Hozzátette: „a vizsgált egyetemek az elemzett időszakban azonban nem fogalmaztak meg olyan konkrét lépéseket, amelyekkel a mesterséges intelligencia-ipar elfogultságát lehetne csökkenteni.”
Hiányoznak a konkrét javaslatok a feltárt problémák megoldására
Fontos etikai hatása van a mesterséges intelligenciával összefüggő hatalmi kérdéseknek, döntéshozatalnak is. A nagy technológiai vállalatok kiterjedt adatgyűjtéséből fakadó hatalmat két vizsgált intézmény – a Bolognai és a Northwestern Egyetem – honlapja egyáltalán nem kritizálja, míg másik kettő – a Stanford és az Utrechti Egyetem – az elszámoltathatóságot, az adatvédelmet helyezi a középpontba.
Az öt vizsgált honlap közül a Stanford Egyetem publikálta a legtöbb tartalmat, és itt jelentek meg leginkább tartalmak egyenlőtlenségekről, de még itt is csak kis mértékben. A két európai egyetem nagyobb arányban említi a mesterséges intelligenciával kapcsolatos társadalmi felelősségvállalást és fenntarthatóságot, mint az amerikaiak, de túl általános, felületes módon, konkrét javaslatok nélkül. A kutatók szerint sokkal több erőfeszítést kellene tenniük ezeknek az intézeteknek az egyenlőtlenségek csökkentésére.
Forrás: Budapesti Corvinus Egyetem„Jelenleg az iparági szereplők csak annyit foglalkoznak az etikai, humanitárius hatásokkal, amennyit a nyilvánosság és a befektetők minimálisan elvárnak tőlük. Azért fontos kutatni az emberközpontú MI vízióit, mert ezek az elvárások irányíthatják és koordinálhatják az MI-ért felelős szereplők tevékenységét. Ehhez pedig elengedhetetlen, hogy az együttműködések átláthatóak, a részletek érthetőek és megismerhetőek legyenek, enélkül nincs esély a változásra. A globális észak vállalataiban és intézeteiben pedig ott vannak a szükséges erőforrások ahhoz, hogy a globális kihívásokra méltányos, demokratikus megoldásokat találjanak, ezt tudatosítani kell” – összegez Vicsek Lilla, a Corvinus szociológusa.