MI vagy mi? – Hogyan tanuljunk meg együtt élni a mesterséges intelligenciával?
Üzlet

MI vagy mi? – Hogyan tanuljunk meg együtt élni a mesterséges intelligenciával?

Achilles Georgiu, CEU
Izgalmas két éven vagyunk túl; ennyi idő kellett ahhoz, hogy ma már ne csak a mesterséges intelligencia (MI) által kínált lehetőségekről beszéljünk, hanem annak valódi veszélyeiről is, és arról, hogyan kezeljük ezeket. Két év sok vagy kevés? Nehéz megmondani, de véleményem szerint meglepően gyorsan reagáltunk ezen kihívásokra: az EU a világon elsőként dolgozott ki egy kockázatalapú szabályozási keretet. Az Európai Unió Mesterséges Intelligencia Törvénye (AI Act) 2024. augusztus 1-jétől hatályos, és ennek keretében február 2-án lépett életbe az első és egyben legfontosabb rendelet, ami alapján az elfogadhatatlan kockázatokat jelentő rendszerek használata mostantól már tiltott.
Ez itt az on the other hand, a portfolio vélemény rovata.
Ez itt az on the other hand, a portfolio vélemény rovata. A cikkek a szerzők véleményét tükrözik, amelyek nem feltétlenül esnek egybe a Portfolio szerkesztőségének álláspontjával. Ha hozzászólna a témához, küldje el cikkét a velemeny@portfolio.hu címre. A megjelent cikkek itt olvashatók.
Mire jó az AI az üzletben? Mellébeszélés helyett stratégiákat, valós megoldásokat és use case-eket mutatunk egy teljes napon át! Regisztráció és részletek itt!

Korábban is voltak már kezdeményezések a MI kordában tartására. Az Európai Unió mesterséges intelligenciára vonatkozó etikai iránymutatásai már 2019 óta léteznek. Az akkor létrehozott iránymutatások elsősorban az MI-technológiákat fejlesztő cégek számára szolgáltak útmutatásként annak érdekében, hogy a mesterséges intelligencia fejlesztése és alkalmazása biztonságos, etikus és megbízható legyen. Más szóval: az MI etikai kódexét próbáltuk meghatározni. Ez helyes lépés volt, de véleményem szerint nem a lényegre fókuszált, hiszen magát a technológiát próbálták etikai és morális korlátok közé szorítani. Az „etika” szó is arra utal, hogy adott helyzetben mi a megfelelő emberi magatartás és viselkedés, tehát a technológiát próbáltuk emberi tulajdonságokkal felruházni, ami lehetetlen küldetés.

Nem az MI etikáját kell újra gondolni, hanem a saját magunkét – az emberi etikát és moralitást úgy, hogy figyelembe vesszük az MI létezését.

A törvény küldetése az emberek érzékenyítése a mesterséges intelligenciával kapcsolatban, egyfajta „digitális tudatosság” kialakítása. Legyünk mindig tisztában azzal, hogy mekkora kockázatot vállalunk adott szolgáltatás vagy termék igénybevételekor, ami MI-t használ. Ez segít megérteni és kezelni a mesterséges intelligenciával járó lehetőségeket és kockázatokat. Tehát nem a technológiát próbáljuk magunkra formálni, hanem olyan szabályokat hozunk létre, amelyek kockázatalapú, tudatos használatra ösztönöznek. A cél nem más, mint hogy védelmet nyújtsunk a társadalom számára az MI potenciális veszélyeivel szemben.

Nem az MI-től kell félni – ez nem a Skynet –, hanem azoktól az emberektől, akik az MI-t rossz dolgokra szeretnék használni.

Az EU-s AI Act nemcsak a jelenlegi helyzetre reagál, hanem egy jövőtálló szabályozási keretet is biztosít, amely képes alkalmazkodni a technológiai jövőbeli fejlődéshez is. Elsődleges célja az MI-vel kapcsolatos bizalom kialakítása és fenntartása, illetve az átláthatóság és elszámolhatóság folyamatos védelmezése.

A jövőben a mesterséges intelligenciát használó megoldásokat négy kategóriába kell sorolni. Az elfogadhatatlan kockázatú rendszerek esetében nincs teendő, ezek egyszerűen már most tiltva vannak. A másik három kategória – magas, korlátozott és minimális kockázatú alkalmazások – esetében a kockázati szinthez igazodó intézkedéseket kell alkalmazni. Ilyen például az átláthatóság biztosítása (pl. jelentések készítése a működésről), az emberi felügyelet fenntartása (nem dönthet kizárólag a MI), vagy a magasabb kockázati szinten szigorúbb tesztelési követelmények bevezetése. Egyszerűbb besorolás esetén elegendő a felhasználók tájékoztatása arról, hogy mesterséges intelligenciával kommunikálnak, illetve evidens módon az MI által generált tartalmak esetében fel kell tüntetni, hogy azokat mesterséges intelligencia hozta létre. Érezni lehet ezen intézkedésekben is, hogy visszaköszönnek a korábbi etikai irányelvek, olyan formában, hogy a felhasználó mindig tisztában legyen azzal, hogy mekkora kockázatot vállal.

Nézzünk egy példát, hogy mit kell tenni a 4 eltérő szinten egy telefonos ügyfélszolgálat esetében: Minimális kockázatú MI használata itt nehezen elképzelhető, hacsak nem egy MI alapú okos asszisztens szórakoztat minket a hívás várakozás idejéig. Ha az MI csak az ügyfélszolgálati folyamatok javítására szolgál, vagy chatbotot alkalmaz az ügyféllel történő interakció során akkor korlátozott kockázatú és megengedett, de jelezni kell az ügyfélnek, hogy tisztába legyen azzal, hogy MI-vel kommunikál. Ha automatizált döntéshozatalt vagy érzelemfelismerést alkalmaz, akkor magas kockázatú, és szigorúbb követelmények vonatkoznak rá. Ha titkos megfigyelésre vagy manipulációra használják, akkor egyszerűen tiltott (elfogadhatatlan kockázatú). Ha egy vállalat ilyen rendszert szeretne alkalmazni, fontos a megfelelő átláthatóság és a felhasználók tájékoztatása a jogszerű működés érdekében és nem árt olyan megoldást választani, ami megfelel a törvénynek.

Na és innentől kezd érdekes lenni a kérdés: rendben van, hogy az EU-ban szabályozzuk az MI használatát, de a világ többi részén még nem korlátozzák, sőt, vannak olyan országok, mint például Kína, ahol az EU által elfogadhatatlan szintű mesterséges intelligenciát használnak állami szinten, a megfigyelési technológiák használatával működtetett rendszert a társadalmi hitelrendszer (Social Credit System) esetében. A rendszer a polgárok minden egyes cselekedetét nyomon követi, a kamerafigyelő rendszerek, pénzügyi tranzakciók, de a közösségi média aktivitást is. Ennek keretében az állampolgárok és vállalatok viselkedését pontozzák, vagyis a cselekedeteik alapján pontokat kapnak vagy veszítenek. Az éppen aktuális pontok befolyásolhatják például hitelképességüket, utazási lehetőségeiket és más társadalmi előnyöket vagy korlátozásokat.

Az EU AI Act nem csak a társadalmi pontozást tekinti elfogadhatatlan kockázatnak, hanem tiltja például a valós idejű, távoli biometrikus azonosítást nyilvános helyeken, ami azt jelenti, hogy ha egy bevásárlóközpontba sétálunk, akkor ne lehessen beazonosítani minket. Az általános adatok, mint például nem, kor vagy magasság gyűjtése megengedett a szolgáltatások javítása érdekében, de személyes adatok tárolása és elemzése szigorúan szabályozott, és csak meghatározott feltételek mellett engedélyezett vagy teljesen tiltott.

Egy másik tiltott terület a manipulatív vagy kognitív viselkedést befolyásoló MI-rendszerek használata. Biztos mindenki találkozott már olyan trükkel, hogy "Utolsó darab!" vagy "jelenleg 3 ember nézi ezt a terméket!" üzenetek jelennek meg, amelyek sürgető érzetet keltenek, vagy a "Flash-sale" visszaszámlálók használata, amelyek pszichológiai nyomást gyakorolnak a gyorsabb vásárlás érdekében. Ezek mind olyan személyre szabott tartalmak és reklámok, amelyek érzelmi gyengeségekre alapozva próbálnak vásárlásra ösztönözni.

Talán az egyik legfontosabb tiltás a rejtett érzelemfelismerés munkahelyeken és oktatási intézményekben. Senki sem szeretne olyan munkahelyen dolgozni, ahol érzelemfelismerő szoftvert használnak, például videóhívások során, hogy felmérjék a dolgozók érzelmi állapotát (pl. stressz vagy elégedettség szintjét). Már a Covid-járvány idején is kellemetlen volt, hogy hőmérőkkel figyelték egészségügyi állapotunkat, de semmilyen körülmények között nem szeretnénk, ha a vállalatok az aktuális elkötelezettségünk szintjét is mérnék. Ez sérti az alapvető emberi jogokat, és nyomást helyezhet a munkavállalókra, hogy állandóan „pozitív” érzelmeket mutassanak, még akkor is, ha valamiért éppen nincs jó kedvük.

Lehet, hogy a jövőben az állampolgárok nem azért fognak egyik országból a másikba költözni, mert jobban süt a nap vagy jobbak a megélhetési lehetőségek, hanem egyszerűen azért, mert nem szeretnék, hogy az állam ilyen szinten avatkozzon be az emberi magánszférába.

Az EU ilyen szempontból egy biztonságos hely lesz, és mivel az AI Act egy uniós rendelet, Magyarországon is közvetlenül alkalmazandó. A szabályozás megsértése esetén a jogsértő vállalatokra akár 35 millió eurós, vagy az előző pénzügyi évi globális forgalmuk 7%-át kitevő bírságot is kiszabhatnak, attól függően, hogy melyik a magasabb. Tehát a GDPR-hoz hasonlóan igen komolynak mondható a visszatartó ereje, de a legnagyobb hasznon talán az, hogy mi magunk az emberek dönthetünk, arról, hogy mekkora teret és betekintést adunk az mesterséges intelligenciának az életünkbe és gondolatainkba. Felmerül tehát a kérdés, hogy bízhatunk-e az MI-ban?

Nem ez a kérdés, hogy bízhatunk-e benne, hanem hogy megtehetjük-e azt, hogy nem bízunk benne.

Meg kell tanulnunk együtt élni az MI-vel. Az MI-érzékenység is egy egyfajta képesség lesz mind vállalati, de akár az egyén szintjén is. Az AI érzékenység több dolgot is jelenthet egyben a felhasználói tudatosság és megértésen túl is. Jelenthet etikai érzékenységet, hogyan használjuk felelőségteljesen az MI-t a saját etikai irányelveink betartása mellett. Jelenthet környezeti érzékenységet is, ne termeljünk feleslegesen digitális szemetet csak azért, mert végtelennek tűnő erőforrás áll rendelkezésünkre, nem ismerve azt, hogy mi zajlik a háttérben, mekkora adatközpontokban, és milyen energia igényel történek a számítások. Végül, de nem utolsó sorban társadalmi érzékenységről is beszélhetünk, annak megértése érdekében, hogy az MI miként befolyásolja a társadalmat, a munkaerőpiacot és a különböző társadalmi csoportokat. Fel kell készülnünk a társadalmi hatásokra, például munkahelyek átalakulására vagy új szociális kérdések megjelenésére, ezt tekinthetjük az MI-re való érzékenyítésre is egyaránt.

Egy dolog biztos: izgalmas időszak előtt állunk. Két éve gejzírszerűen törtek fel az első komolyabb mesterséges intelligencia-megoldások, és azóta számtalan más, sokkal komplexebb, multimodális modelleket használó MI-rendszer (szöveg, kép, hang, videó) is piacra került.

Ezen gejzírek együttes hatása cunamiként fog végigsöpörni a világon.

Mire jó az AI az üzletben? Mellébeszélés helyett stratégiákat, valós megoldásokat és use case-eket mutatunk egy teljes napon át! Regisztráció és részletek itt!

A címlapkép illusztráció. Címlapkép forrása: Getty Images

Kiszámoló

Bookingos csalás

Az internet tele van online csalókkal, miért pont a booking.com lenne a kivétel ez alól. Számtalan módon akarnak pénzt kicsalni tőled a booking oldalán is, a nemlétező apartmantól kezdve odáig

PR cikk
FRISS HÍREK
NÉPSZERŰ
Összes friss hír
Oroszország esélyt kaphat, hogy egy puskalövés nélkül elfoglalja egész Ukrajnát
Díjmentes előadás

Tőzsdei túlélőtúra: Hogyan kerüld el a leggyakoribb kezdő hibákat?

A tőzsdei vagyonépítés során kulcsfontosságú az alapos kutatás és a kockázatok megértése, valamint a hosszú távú célok kitűzése és kitartó befektetési stratégia követése.

Tanfolyam

Sikeres befektető online tanfolyam

Képes leszel megtalálni a számodra legmegfelelőbb befektetési terméket, miközben olyan gyakorlati stratégiákat sajátítasz el, amiket azonnal bevethetsz a sikeres befektetésekhez!

Portfolio hírlevél

Ne maradjon le a friss hírekről!

Iratkozzon fel mobilbarát hírleveleinkre és járjon mindenki előtt.

Kiadó modern irodaházak

Az iroda ma már több, mint egy munkahely. Találják meg most cégük új otthonát.

Green Transition & ESG 2025
2025. március 6.
Property Warm Up 2025
2025. február 20.
Agrárium 2025
2025. március 19.
Biztosítás 2025
2025. március 4.
Hírek, eseményajánlók első kézből: iratkozzon fel exkluzív rendezvényértesítőnkre!
Ez is érdekelhet
Egyesülne a Nissan és a Renault