Az EU betiltaná az arcfelismerő technológiát és a megfigyelésen alapuló algoritmusokat
Az EU legújabb törvényjavaslata betiltaná a megfigyelésen alapuló arcfelismerő technológiát és az embereket manipuláló algoritmusokat. A széles körű javaslat szigorú szabályokkal látná el az általa meghatározott magas kockázattal járó mesterséges intelligenciák használatát (a továbbiakban: MI). Ez pedig magába foglalná a rendőrség által, valamint a besorozás során használt algoritmusokat. Ezzel szemben, a katonaság és a hatóságok a közbiztonság megóvása érdekében mentesülnének a szabályozások alól. Szakértők szerint azonban a törvények elég homályosak, és számos kiskaput tartalmaznak, mellyel aztán könnyedén ki lehet bújni betartásuk alól.
A MI használata a mai világban már széles körben elterjedt, mely egyébként javarészt az emberek viselkedési mintáit jegyzi meg. Ma már az általa támogatott kamerán keresztüli arcfelismerő funkció és a személyes asszisztens talán senkinek sem mond újat. De vajon mennyire biztonságosak ezek az eszközök, és milyen pozitív és negatív hatással lehetnek az ember életére? Az Európai Unió szerint elengedhetetlen az MI szabályozása. Nemrégiben pedig egy listával állt elő a „tiltott rendszerekről”, melyek között szerepelnek az emberek manipulálására, valamint a társadalom sebezhetőségének felmérésére és kihasználására tervezett eszközök is.
Daniel Leufer európai szakpolitikai elemző tweetjében elmondta, hogy a lista kissé hiányos, hiszen „milyen alapon lehet megállapítani azt, hogy valami káros az ember számára? És ki értékelné mindezt?”
Stop, MI!
Az EU szerint a magas kockázattal járó MI elleni védelemben a tagállamoknak sokkal nagyobb felügyeletet kell biztosítaniuk, ideértve a folyamatos tesztelést és ellenőrzést. Továbbá minden olyan vállalat büntetése, mely úgynevezett „tiltott” szolgáltatásokat fejleszt, vagy nem ad elegendő információt rendszeréről, a globális bevétel akár 4 százaléka is lehet. Leufer hozzátette, hogy a javaslatokat „ki kell terjeszteni az összes MI rendszerre, függetlenül a hozzájuk rendelt kockázati szinttől. Az embernek ugyanis sokszor még csak lehetősége sincs arra, hogy kikerülje az ilyesfajta rendszerekkel járó kockázatot.”
Mindamellett, hogy a Bizottság megkívánja, hogy az MI rendszerek emberi felügyelet alatt álljanak, javaslata továbbá kiterjed egy úgynevezett „stop gombra” is, mellyel – ha a szükség megkívánja – a nem megfelelően működő rendszereket azonnal leállíthatják. Így aztán Herbert Swaniker, a londoni központú Clifford Chance Iroda ügyvédje szerint „az MI gyártói nagy hangsúlyt fognak fektetni ezekre a törvényjavaslatokra, mivel mindez megkívánja rendszereik teljeskörű megváltoztatását.”
„Homályos és veszélyes”
Michael Veale, a Londoni Egyetem egyik lektora fontosnak tartja, hogy kényszerítsék a különböző szervezeteket, hogy ne titkolják el, ha úgynevezett „deepfake-et” alkalmaznak. A „deepfake” egyébként egy olyan algoritmus, mellyel (mozgó)képeken szereplő személy arcképét élethűen másvalakiére lehet cserélni. Továbbá elmondta azt is, hogy a nemrégiben alkotott jogszabályok elsősorban „az eladókat és a tanácsadókat célozták meg, melyek gyakran értelmetlen MI technológiát adnak el iskoláknak, kórházaknak, rendőröknek és munkáltatóknak”, viszont érdemesebb lenne kiterjeszteni azokat a „felhasználók manipulálására” tervezett nagyobb tech cégekre is.
Ez Európai Nonprofit Jogi Központ, mely hozzájárult az Európai Biztosság MI-vel kapcsolatos javaslatainak elkészítéséhez elmondta, hogy a törvényjavaslatban valóban sok kivetni való volt. A kockázatok EU általi pontos meghatározása „hanyag és veszélyes. A Bizottságnak jogalapú keretek között kell mérlegelnie az MI rendszerek kockázatát, ideértve azon rendszerek kiküszöbölését, melyek szembemennek az emberek jogaival és veszély jelenthetnek a demokráciára.”
Mindenesetre a részletek még egyelőre bizonytalanok, és valószínűleg sok változtatáson keresztül kell még menniük, mielőtt a szabályokat hivatalosan is nyilvánosságra hozzák és érvénybe léptetik. Az viszont biztos, hogy az uniós előírásoknak valóban számos dolgot figyelembe kell venniük, és úgy kell mindezt alakítaniuk, hogy azok fellendítsék az innovációt és maximálisan védjék az alapvető emberi jogokat.