Vitalik Buterin félti az emberiség biztonságát, leállítaná az AI versenyt?

Vitalik Buterin szerint a szuperintelligens mesterséges intelligencia veszélyes formáinak lelassítása érdekében a végső megoldás az lenne, ha egy-két évre korlátoznák a rendelkezésre álló globális számítási teljesítményt.

Az Ethereum társalapítója szerint az AGI a következő öt évben való megjelenése kiszámíthatatlan következményekkel járhat az emberiség számára.

Veszélyes lehet az AI verseny, Buterin szünetet sürget

Az Ethereum társalapítója egy „globális lassítási gombot” javasolt, aminek aktiválása egy-két évre átmenetileg 90-99%-kal csökkentené az ipari szintű számítási teljesítményt. Az intézkedés célja, hogy az emberiségnek több ideje legyen felkészülni a mesterséges általános intelligencia (AGI) gyors fejlődésével járó potenciális kockázatokra.

Buterin egy 2025. január 5-i blogbejegyzésében adott hangot az aggodalmának. Szerinte az AGI a következő öt évben megjelenhet, és kiszámíthatatlan következményekkel járhat. Azt javasolta, hogy a rendelkezésre álló számítási erőforrások ideiglenes csökkentése elővigyázatossági lépésként szolgálhatna a potenciális veszélyek mérséklésére.

Vitalik Buterin javaslata az ipari méretű mesterséges intelligencia hardverek megbízható chipekkel való felszerelését is tartalmazza, amelyek működésének folytatásához a főbb nemzetközi szervek rendszeres engedélye lenne szükséges. Ez a mechanizmus biztosítaná a nagy teljesítményű számítástechnikai erőforrások központi ellenőrzését, és megakadályozná a jogosulatlan használatot a javasolt szüneteltetési időszak alatt.

A „puha szünet” koncepciója heves vitát váltott ki a technológiai közösségben. A kritikusok szerint egy ilyen szünet lényegében katonai beavatkozás nélkül nem kivitelezhető, míg mások úgy vélik, hogy a megelőző intézkedések elengedhetetlenek az ellenőrizetlen AI fejlesztés által jelentett egzisztenciális kockázatok kezeléséhez.

Érdekelhet: Egyre többen aggódnak a centralizáció és mesterséges intelligencia fenyegetettsége miatt

Buterin elismerte, hogy a javaslat végrehajtása kihívásokkal jár, de hangsúlyozza a proaktív lépések fontosságát az AI-technológiák biztonságos fejlődésének biztosítása érdekében. A nemzetközi együttműködés és a szabályozási keretek kialakítása mellett érvel, hogy felelősségteljesen lehessen kezelni a mesterséges intelligencia fejlődését.

Mivel a technológia továbbra is exponenciális ütemben fejlődik, a biztonsági intézkedésekről és etikai megfontolásokról szóló viták továbbra is kulcsfontosságúak. Buterin javaslata hozzájárul a folyamatban lévő párbeszédhez, amely a technológiai innováció és az emberiség jövőjének védelme közötti egyensúly megteremtéséről szól.

Kapcsolódó: