A ChatGPT ex-tudósa AI biztonsági céget alapít
A mesterséges intelligencia robbanásszerű térnyerése 2022-ben kezdődött el, és azóta is töretlenül tart. A gépi tanulás integrálása a különböző rendszerekbe rendkívüli hatékonyságot, gyorsaságot és pontosságot eredményez, mely felülírja az emberi korlátokat, ugyanakkor alkalmazása és annak biztonsága nemcsak morális, hanem szakmai kérdéseket is felvet.
Éppen ezért indította el az OpenAI korábbi vezető tudósa, Ilya Sutskever legújabb vállalatát, mely az AI és az AGI biztonságára és képességeik növelésére fókuszál.
Az OpenAI korábbi munkatársai összefogtak
Ilya Sutskever célját egyértelművé teszi új vállalata, a Safe Superintelligence Inc, mely az SSI rövidítésre hallgat. Az OpenAI társalapítója és korábbi vezető tudósa mellett a ChatGPT korábbi mérnöke, Daniel Levy és az Y Combinatur startup-inkubátor befektetője, Daniel Gross csatlakoztak a projekthez. Az SSI egyértelmű célja úgy fejleszteni az AI képességeit, hogy a biztonsága is hasonló ütemben nőjön. A trió június 19-én egy online bejelentésben közölték, hogy az egyesült államokbeli vállalat két irodát nyit meg, egyet Palo Altóban, egyet Tel Avivban. Az SSI közleménye szerint a cég folyamatosan várja a mérnökök és kutatók jelentkezését.
„Egyedüli fókuszunk, hogy a vezetői ráfordítások vagy a termékciklusok ne vonják el a figyelmet küldetésünkről. Üzleti modellünk a biztonság, a megbízhatóság és a fejlődés összhangjában került meghatározásra, melyet nem befolyásol a rövid távú kereskedelmi nyomás.” – áll a vállalat közleményében
Az AGI aggályai
Az SSI küldetéséből adódóan érdemes elkülöníteni a mesterséges intelligenciát (AI) az általános mesterséges intelligenciától (AGI), mely egy hipotetikus mesterséges intelligencia. Az AGI képes meghaladni az emberi intelligenciának a képességeit, bármely intellektuális feladatot ellátni és az AI szűk fókuszával ellentétben inkább általános és rugalmas feladatok megoldására használatos.
Az AGI jelenleg még kutatási fázisban van, nincs olyan rendszer, mely teljesen megfelelne az AGI definíciójának, ugyanakkor hosszú távon ez lehet a megoldás az emberi tényező kiváltására.
Az OpenAI csapatánál a vállalat számítási teljesítményének a 20%-át az úgynevezett Superalignment csapata használta fel, melynek célja az AGI rendszerének a megismerése, fejlesztése és kiaknázása. A csapatot 2023 júliusában hozták létre Sutskever és Jan Leike vezetésével, azonban az SSI alapítóját követően Leike is elhagyta az OpenAI-t, hogy az Amazon által támogatott Anthropic induló csapatának a vezetője legyen.
A tech-ipar általános aggodalma
A mesterséges intelligencia morális és szakmai kockázata miatt számos kutató és befolyásos alak kifejezte aggodalmát a rendszerekkel kapcsolatban, mivel nem tiszta a gépi tanulás iránya, és annak következő fozokata. Az Ethereum társalapítója, Vitalik Buterin kockázatosnak nevezte az AGI-t, ugyanakkor végkockázat szempontjából sokkal alacsonyabb a gépek fejlesztése, mint a katonai törekvéseké.
Buterin mellett a Tesla vezérigazgatója, Elon Musk is kifejezte aggodalmát az AI-val kapcsolatban. Musk és az Apple társalapítója, Steve Wozniak az AI féléves szüneteltetését kezdték el szorgalmazni 2600 technológiai vezetővel egyetemben. Véleményük szerint erre azért van szükség, hogy az emberiségnek legyen egy minimális ideje feldolgozni az AI-ban rejlő potenciált és annak kockázatát.