Vitalik Buterin félti az emberiség biztonságát, leállítaná az AI versenyt?
Vitalik Buterin szerint a szuperintelligens mesterséges intelligencia veszélyes formáinak lelassítása érdekében a végső megoldás az lenne, ha egy-két évre korlátoznák a rendelkezésre álló globális számítási teljesítményt.
Az Ethereum társalapítója szerint az AGI a következő öt évben való megjelenése kiszámíthatatlan következményekkel járhat az emberiség számára.
Veszélyes lehet az AI verseny, Buterin szünetet sürget
Az Ethereum társalapítója egy „globális lassítási gombot” javasolt, aminek aktiválása egy-két évre átmenetileg 90-99%-kal csökkentené az ipari szintű számítási teljesítményt. Az intézkedés célja, hogy az emberiségnek több ideje legyen felkészülni a mesterséges általános intelligencia (AGI) gyors fejlődésével járó potenciális kockázatokra.
Buterin egy 2025. január 5-i blogbejegyzésében adott hangot az aggodalmának. Szerinte az AGI a következő öt évben megjelenhet, és kiszámíthatatlan következményekkel járhat. Azt javasolta, hogy a rendelkezésre álló számítási erőforrások ideiglenes csökkentése elővigyázatossági lépésként szolgálhatna a potenciális veszélyek mérséklésére.
Left: the goal. Right: the means. pic.twitter.com/Veav3mAcVz
— vitalik.eth (@VitalikButerin) January 5, 2025
Vitalik Buterin javaslata az ipari méretű mesterséges intelligencia hardverek megbízható chipekkel való felszerelését is tartalmazza, amelyek működésének folytatásához a főbb nemzetközi szervek rendszeres engedélye lenne szükséges. Ez a mechanizmus biztosítaná a nagy teljesítményű számítástechnikai erőforrások központi ellenőrzését, és megakadályozná a jogosulatlan használatot a javasolt szüneteltetési időszak alatt.
A „puha szünet” koncepciója heves vitát váltott ki a technológiai közösségben. A kritikusok szerint egy ilyen szünet lényegében katonai beavatkozás nélkül nem kivitelezhető, míg mások úgy vélik, hogy a megelőző intézkedések elengedhetetlenek az ellenőrizetlen AI fejlesztés által jelentett egzisztenciális kockázatok kezeléséhez.
Érdekelhet: Egyre többen aggódnak a centralizáció és mesterséges intelligencia fenyegetettsége miatt
Buterin elismerte, hogy a javaslat végrehajtása kihívásokkal jár, de hangsúlyozza a proaktív lépések fontosságát az AI-technológiák biztonságos fejlődésének biztosítása érdekében. A nemzetközi együttműködés és a szabályozási keretek kialakítása mellett érvel, hogy felelősségteljesen lehessen kezelni a mesterséges intelligencia fejlődését.
Mivel a technológia továbbra is exponenciális ütemben fejlődik, a biztonsági intézkedésekről és etikai megfontolásokról szóló viták továbbra is kulcsfontosságúak. Buterin javaslata hozzájárul a folyamatban lévő párbeszédhez, amely a technológiai innováció és az emberiség jövőjének védelme közötti egyensúly megteremtéséről szól.
Kapcsolódó:
- Újszerű módon veszélyezteti a mesterséges intelligencia a kriptotárcákat
- Már 2025-ben a mesterséges intelligencia a mindennapjaink része lesz