18 év hallgatás után az AI segítségével tudott megszólalni egy sztrókot kapott nő

A Kaliforniai Egyetem kutatói saját AI-modellekkel hozták vissza egy amerikai nő hangját, aki egy 18 évvel ezelőtti sztrók miatt lett néma.

Már 18 éve nem tud beszélni egy amerikai nő, aki bár szerencsével határos módon túlélt egy sztrókot, súlyos árat fizetett ezért. Most azonban a Kaliforniai Egyetem által kifejlesztett kísérleti agy-számítógép interfész segítségével sikerült visszanyernie a hangját.

A Nature Neuroscience című szaklapban hétfőn közzétett kutatás a mesterséges intelligenciát használta fel arra, hogy az Anne nevű amerikai nő gondolatait valós időben beszéddé alakítsa.

A tanulmányban egy speciális agy-számítógép interfészt használtak, hogy közvetlen kapcsolatot hozzanak létre Anne agyának elektromos jelei és a számítógép között.

Mint azt Gopala Anumanchipalli, a Kaliforniai Egyetem professzora elmondta, a rendszer az agy beszédközpontján elhelyezett elektródákból álló rács segítségével olvassa le az idegi jeleket. A professzor megjegyezte, hogy míg a művégtagok terén jelentős előrelépések történtek az utóbbi időben, addig a beszéd helyreállítása továbbra is egy nagyon összetett probléma.

„Mindkettő motoros rendszer, de a végtagok mozgatása egyszerűbb probléma, mint a szájmozgás, amely több ízületet és izmot érint” – mondta.

Anne esküvői videója alapján alkották újra a szintetikus hangját

Hangsúlyozva a gyors válaszok fontosságát a társalgásban, Anumanchipalli elmondta, hogy gépi tanulással és egyedi AI-algoritmusokkal az interfész egy másodpercen belül beszéddé alakította Anne agyi jeleit egy szintetikus hanggenerátor segítségével.

Hogy a saját hangján tudjon megszólalni, a kutatók a sérülése előtti hanganyagot használták – az esküvői videóját. Ez egy 20 éves klip volt, és digitálisan sikerült újraalkotniuk Anne szintetikus hangját. Ezután az egyetem kutatói összevetették az agya beszédkísérletét ezzel a hanggal, hogy szintetikus beszédet tudjanak generálni.

Ahelyett, hogy nyilvánosan elérhető mesterséges intelligencia modellekre támaszkodtak volna, a csapat az alapoktól kezdve kifejezetten Anne számára fejlesztette ki a rendszert.

„Nem használtunk semmilyen kész megoldást. Mindent, amit használunk, Anne-re szabottan készítettünk. Nem támaszkodtunk más cégektől származó mesterséges intelligenciára” – mondta Anumanchipalli.

Teljesen privát módon kezelik Anne beszélgetéseit

A kutatók azt is elmondták, hogy míg a legtöbb helyen egységes AI-megoldásokat alkalmaznak, addig az egészségügyben általában személyre szabottan kell elkészíteni a mesterséges intelligencia modelleket. Anumanchipalli szerint ugyanakkor a saját AI létrehozása nem csak a specializációról szól, hanem a felhasználók magánéletének védelméről is.

„A cél a magánélet megőrzése. Nem küldjük a jeleit egy szilícium-völgyi cégnek. Olyan szoftvert tervezünk, amely vele marad” – mondta. „Végül ez egy önálló eszköz lesz, amelyet a saját teste táplál, és helyben működik – így senki más nem fogja látni, hogy mit próbál mondani.”

A jövővel kapcsolatban Anumanchipalli kifejtette, reméli, hogy a beszédhelyreállítási kísérletek száma hamarosan megduplázódhat.

„Szerencsére ezek az erőfeszítések komoly támogatást kaptak. Remélem, hogy az emberi tényező továbbra is központi szerepet játszik” – mondta a professzor. „Az olyan emberek, mint Anne, önkéntes munkát és időt áldoznak valamire, ami nem ígér nekik semmit, viszont megoldásokat tárhat fel olyan emberek számára, mint amilyenek ők is – és ez fontos.”