Sam Altman, az OpenAI vezérigazgatója szerint a ChatGPT és a mesterséges intelligencia negatív kockázatait a minimálisra kell szorítani.
Mesterséges intelligenciát (AI) már sok, általunk használt rendszerben ott van és működik (elég csak a Facebookot említeni vagy a Google-t), de hogy milyen erő és potenciál van a technológiában, azt valójában az OpenAI által fejlesztett csevegő-platform, a ChatGPT ismertette meg a világ széles közvéleményével tavaly novemberben. A technológia mögé hardvert gyártó és a hype-on hatalmasat nyerő Nvidia vezérigazgatója találóan csak „iPhone-pillanatnak” nevezte, ahogy a ChatGPT-t meghódította az egész világot.
A ChatGPT-nek vannak kockázatai
Az OpenAI miatt a cég CEO-ja, Sam Altman is hirtelen a figyelem középpontjába került. Sam Altman nem annyira optimista, mint sokan mások a techiparban. Indiában egy szakmai konferencián beszélt arról, hogy nagyon aggódik amiatt, hogy „valami nagy rosszat” tettek a ChatGPT létrehozásával.
Amitől nem alszom jól az az a gondolat, hogy a ChatGPT elindításával esetleg máris valami nagyon rosszat hoztunk létre”.
Altman épp egy világkörüli úton van, ellátogat majd többek között Katarba, Izraelbe, Dél-Koreába, jelenleg Indiában van úton, több szakmai rendezvényen is beszélni fog. Új-Delhiben az Economic Times rendezvényén nekiszegezték azt a kérdést is, nem lenne-e szükség olyan szabályozásra az AI rendszerek esetében, mint amilyen az atomenergia-iparban van. Az OpenAI vezére szerint sokkal jobban ellenőrzött és biztosított folyamatokra lesz szükség, valahogy auditálni kellene majd azokat az embereket is, akik hozzáférnek a technológiához. Maga a társaság is dolgozik egy ilyen rendszer kifejlesztésén, de erre rá is van kényszerülve, ha meg akar felelni ez egyre szigorodó európai szabályozásnak.
Altman amúgy korábban is nagyon kritikusan beszélt arról, hogy milyen kockázatai lehetnek, ha szabadjára engedik az AI technológiát.
Egyelőre nem állnak neki a GPT 5-nek
Elon Musk és az Apple társalapítója, Steve Wozniak is nyílt levélben szólított fel arra, hogy a GPT-4-es technológiáknál erősebb rendszerek esetében féléves moratóriumra lenne szükség a fejlesztésekben. Az ok: a szabályozóknak utol kellene érnie a technológiát és konszenzusra kellene jutni arról, hogy annak kockázatait minimalizálni tudják. Egy, a fejlett AI rendszereket az emberiség kipusztulásáért potenciálisan felelős tényezőnek tekintő nyílt levelet maga Altman is aláírt korábban.
Az a felhívás arról szólt, hogy az AI rendszereket is hasonlóan kellene kezelni, mint egy lehetséges világjárványt vagy az atomháborút. Ez nem azt jelenti, hogy az AI kipusztítja majd az emberiséget, hanem azt, hogy megfelelően kell szabályozni, hogy ennek a kockázatát a lehető legkisebbre szorítsák.
Egyelőre a GPT 4-es modellt használják és nem állnak még neki a következő generációs rendszer tesztelésének. Sok újdonságon dolgoznak, ami az 5-ös modellhez vezet majd, de messze vannak még attól, hogy az új rendszert kihozzák. Részben azért, mert a technológiával kritikus szereplők nyomásának engedve, a kockázatok felmérésén is dolgoznak.