A mesterséges intelligencia (AI) a jövő iparága, itt kell befektetni – sok laikus számára ez már-már evidens bölcsesség. Tényleg ilyen egyszerű? Nincsenek ezek a cégek már amúgy is túlárazva?
(A szerző befektetési szakember.)
Ahhoz, hogy ezekre a kérdésekre a megfelelő válaszokat megtaláljuk érdemes azt a struktúrát megismerni, ahogy az AI, azaz a mesterséges intelligencia befektetésekről célszerű gondolkodni, ha a nyerő oldalon szeretnénk kikötni.
Ha valaki 2022 novemberében a ChatGPT megjelenésekor azt mondta: „a generatív mesterséges intelligenciáé lesz a jövő, és mivel az ehhez szükséges chipeket szinte kizárólag az Nvidia gyártja, így ebbe a cégbe fektetek”, az ezzel az egyszerű következtetéssel közel meghatszorozta az eltelt bő másfél évben a befektetésének az értékét.
Abban a pillanatban egyértelműen igaz volt, hogy a feltörekvő új trend legfontosabb szereplőjét kell csak megvenni, és várni. A befektetési szakmában azonban a szomorú valóság az, hogy a múltbéli folyamatokat utólag nagyon könnyű megmagyarázni, nekünk viszont a jelenben kell döntést hozni, az előttünk álló időszakra vonatkozóan.
Lehet persze, hogy így is az jár a legjobban, aki becsukja a szemét és Nvidiát vesz? Lehet. Ennek ellenére érdemes jobban beleásni magunkat a témába, és strukturáltan, a teljes generatív mesterséges intelligencia értékláncban gondolkozni? Mindenképp!
Nézzük tehát meg a generatív mesterséges intelligencia értékláncot és azt, hogy ennek a különböző pontjain közreműködő cégeknél a teremtett érték mekkora része csapódhat le!
Chipgyártók – eltérő architektúrák
A generatív mesterséges intelligencia értéklánc legalsó rétegének a chiptervezőket tartják az iparági szereplők. Mehetnénk ennél is mélyebbre, hiszen magát a chipet szinte kizárólag a tajvani TSMC gyártja, az ehhez szükséges gépeket pedig a holland ASML szállítja, de fogadjuk most el ezt az egyszerűsítést.
Azt az egyszerűsítést viszont ne fogadjunk el (akkor se, ha a médiában gyakran elsiklanak fölötte), hogy a generatív mesterséges intelligenciában a modellek betanítása (training) és a már betanított modellek futtatása (inference) ugyanaz – ez két igen különböző folyamat.
Ezekhez más és más chip architektúrára van szükség.
A tanításhoz a több egyszerű számítást egyszerre futtatni képes grafikus processzorok (GPU – Graphics Processing Unit) az ideálisak. Ezek tervezésében az Nvidia messze a versenytársai előtt jár.
A feltanított modellek futtatására viszont már nem a GPU a legjobb architektúra. Ez ugyanis sok energiát használ. Nem a futtatáshoz szükséges műveletekre optimalizálták, hanem a tanításra, a számítógépes játék grafikára, illetve a kriptobányászathoz szükséges számításokra.
Győzelemesélyes chippek az Nvidian túl
A modellek futtatásában élen járó chip architektúrát Jonathan Ross kezdte fejleszteni. Ross a Google mérnökeként eltöltött évei alatt alkotta meg a TPU (Tensor Processing Unit) architektúrát, amire építve a Google az egyik legnagyobb inference kapacitással rendelkező felhőszolgáltatását hozta létre.
Ross nem elégedett meg azonban azzal, hogy csupán egy alkalommal rajzolja át a mesterséges intelligencia futtatására optimalizált chipek világát: 2016-ban Groq néven új startupot alapított, amely 2022-ben egy új chip architektúrát dobott a piacra LPU (Language Processing Unit) néven. Ezt az architektúrát már sebességben, teljesítményben és energiafelhasználásban is a nagy nyelvi modellek (LLM-ek) futtatására optimalizálták.
Az emberekkel valós időben kommunikáló robotoknál, vagy az önvezető autóknál is meghatározó (akár életmentő) lehet a mesterséges intelligencia modell futásának sebessége. Figyelembe kell továbbá venni azt is, hogy az infrastruktúra kiépítésekor a modellek futtatásának energiahatékonysága jelentős költségcsökkentő tétel lehet. A Groq értékét hivatalosan legutóbb 2021-ben becsülték egymilliárd dollárra, azóta – a generatív AI berobbanásával – ez az érték akár a sokszorosára is nőhetett.
Nem lennék meglepve, ha hamarosan tőzsdére vinnék a vállalat papírjait – bár erre vonatkozó hír eddig nem volt.
Az Nvidia chipek fontosságát nem lebecsülve, az eddigiek alapján is kezd körvonalazódni az, hogy már a győztes chipgyártók kiválasztása se magától értetődő folyamat – nem is beszélve arról, hogy milyen árazottságon vesszük meg a cég részvényeit. Pedig még rá se tértünk az értéklánc következő pontjaira.
Hatalmas összegek folynak a nagy nyelvi modellek fejlesztésébe
A 2023-as év szava a Cambridge-i egyetem szerint a „hallucináció” volt. Ebben az évben robbant be a köztudatba a ChatGPT és a hozzá hasonló nagy nyelvi modellek (LLM-ek) használata. Ezek akkor is magabiztos választ adnak egy feltett kérdésre, ha fogalmuk sincs a témáról. A nyelvi modelleknek ezt a pontatlanságát nevezik hallucinációnak – a szó tavaly az iparág nyelvi kultúrájának a részévé vált.
Minden pontatlanságuk és tökéletlenségük ellenére, a nagy nyelvi modellek elképesztő népszerűségre tettek szert, az ember-számítógép együttműködés teljesen új dimenzióját keltették életre, rámutattak továbbá arra is, hogy egy generális mesterséges intelligencia létrehozása nincs is olyan messze, mint azt korábban gondoltuk. Így a chipgyártók mellett az LLM-ek fejlesztői kerültek a figyelem középpontjába, amelyek óriási erőforrásokat ölnek az újabb és újabb lenyűgöző modellek fejlesztésébe – kimondott céljuk az általános mesterséges intelligencia (az AGI) létrehozása.
Mindent vagy semmit
Ezek alapján az érdeklődés középpontjába került a ChatGPT-t fejlesztő OpenAI, vagy a Claude-ot fejlesztő Anthropic is – megtérülő üzleti modellt azonban eddig egyik vállalat sem volt képes kiépíteni.
Sam Altman, az OpenAI CEO-ja a legutóbbi interjújában arról beszélt, hogy tavaly 500 millió dollárnyi veszteséget termelt a cége, pedig ekkor már bevételt hozott a fizetős ChatGPT, és
arra is utalást tett, hogy az sem érdekli, ha 50 milliárd dollárt éget el egy évben, ha az út végén sikerül neki az AGI kifejlesztése.
Nehéz elképzelni, hogy milyen üzleti modellt lehet építeni egy ilyen drágán fejleszthető technológiára, amely a legnagyobb társadalmi hasznot (és gazdasági növekedést) akkor tudná teremteni, ha minél olcsóbban tennék elérhetővé a felhasználók számára.
Tovább rombolja a modellek megtérülésének várható értékét az a tény is, hogy rengetegen vannak, akik a mesterséges intelligencia fejlesztésére a nyílt forráskódú (open source) modellt tartják az egyetlen etikus útnak. Ez azt jelenti, hogy a több százmillió dollárból feltanított algoritmust ingyen elérhetővé teszik bárki számára.
Nem csak a kis szereplők vágyálma az open source AI. Néhány héttel ezelőtt a Meta (a Facebookot üzemeltető vállalat) nyilvánosságra hozta a legújabb nyílt forráskódú modelljét a Llama 3-at, amely már (nevével ellentétben zárt forráskódú) az OpenAI ChatGPT-jével is képes felvenni a versenyt.
Az LLM-fejlesztők talán a legfontosabb részei a mesterséges intelligencia infrastruktúrának, ám profittermelési szempontból közel sem egyértelműen ők lesznek a nyertesek. Elképzelhető, hogy az a cég, amelyiknek először sikerül megalkotnia az átfogó mesterséges intelligenciát, letarolja a piacot, és a világ legértékesebb vállalata lesz. Az sem zárható ki azonban, hogy a nyílt forráskódú megoldások miatt ez a rengeteg beruházásra elköltött pénz soha nem térül meg az LLM fejlesztő cégek befektetőinek.
Infrastruktúra – az óriások játszótere
Van tehát hardverünk, amely képes tanítani és futtatni a mesterséges intelligenciát. Van szoftver is, amit futtatni lehet a hardveren. Az értéklánc következő lépcsőfoka az infrastruktúra, kérdés, hol lesz ez, és milyen üzleti modellben szolgáltat majd a felhasználóknak.
Ahogyan az adattárolást is sok cég és magánszemély a „felhőbe költöztette”, úgy van lehetőség a számítási kapacitás kiszervezésére is a nagy szolgáltatók szervereire. Az adataink ugyanis nem a „felhőben” vannak tárolva, hanem a Google, a Microsoft és az Amazon óriási szerverein. Ezek a vállalatok elkezdték felvásárolni az Nvidia és egyéb chipgyártó cégek szinte teljes kapacitását annak érdekében, hogy ki tudják építeni a saját „felhő-AI” szolgáltatásukat.
Ha egy startup saját modellt akar tehát betaníttatni, és a modell futtatására épülő szolgáltatást nyújtani, akkor nem kell beruháznia több millió dollárt mikrochipekbe, hanem (például az Amazon szerverein) bérelhet training vagy inference kapacitást, és ezen keresztül nyújthatja a szolgáltatását. Ez rendkívül nagy rugalmasságot biztosít az infrastruktúrát bérlő vállalatok számára, hiszen ha egy fél év alatt százszorosára nő a felhasználóik a száma, akkor csak több kapacitást bérelnek, nem kell egy újabb adag TPU-t bekötniük a saját szerverparkjaikba. Ezért is hívják a Google Cloud, Amazon Web Services és Microsoft Azure szolgáltatásait „hyperscalereknek”: segítenek idő és pénz befektetése nélkül egy internetes vállalat kapacitását a sokszorosára növelni.
Természetesen, ahogy a szenzitív adatok tárolása kapcsán, itt is lesznek olyan cégek, amelyek inkább saját hardvert használnak majd, és a helyi futtatást részesítik előnyben, de minden bizonnyal ők lesznek kisebbségben.
Befektetési szempontból nehéz értékelni az értékláncnak ezt a szegmensét, itt ugyanis a világ legértékesebb vállalatai a domináns szereplők.
A számítási kapacitás minden bizonnyal commodity lesz a jövőben, és a nagy vállalatok versengése miatt kevésbé elképzelhető, hogy óriási profitok keletkezzenek majd ebben a szegmensben. Főleg, ha hozzátesszük azt is, hogy jelenleg óriási túlkeresletben vásárolják be az infrastruktúra működtetéséhez szükséges mikrochipeket, így a beruházási időszak ezen vállalatok számára rendkívül költséges.
A felhasználók, ahol a legnagyobb a verseny
Az értéklánc utolsó pontján azok a tradicionális iparágakban működő vállalatok vannak, amelyek a mesterséges intelligenciát felhasználva a terméküket vagy a szolgáltatásukat sokkal hatékonyabban, jobb minőségben tudják majd előállítani és értékesíteni.
Ez az értéklánc legszélesebb szegmense. Gondolhatunk itt az olyan vállalatokra, mint a Photoshopot fejlesztő Adobe, amely a képgeneráló AI-t beépítve értéknövelt szolgáltatást nyújthat az ügyfelei számára.
Vagy a nagy gyógyszergyártókra (például a Pfizerre), amelyek a mesterséges intelligencia segítségével megkönnyíthetik, illetve felgyorsíthatják a gyógyszergyártási folyamataikat.
De ilyen lehet a játékfejlesztő szoftvert gyártó Unity is, amely a nagy nyelvi modellek segítségével sokkal intuitívabbá tudja tenni a játékfejlesztést, nagyban csökkentve a belépési korlátot a felhasználói számára.
Látható, hogy a felhasználók szintjén lesz a legnehezebb dolga az AI lehetőségeket kereső befektetőknek. Nagyon nehéz ugyanis kitalálni, hogy melyik vállalat tudja majd igazán kihasználni a generatív mesterséges intelligencia által nyújtott lehetőségeket.
Melyik befektetés lesz a nyerő választás?
Mitől lesz képes egy ilyen vállalat hosszú távon fenntartható versenyelőnyt kiépíteni? Mi akadályozhatja továbbá meg a néhány fős startupokat abban, hogy az AI lehetőségeit kihasználva sokkal hatékonyabban és olcsóbban nyújtsák ugyanazt a szolgáltatást, amire addig csak a több ezer fős nagyvállalatok voltak képesek? Túl sok itt a válaszra váró kérdés.
Ahhoz, hogy értékláncnak ezen a pontján fektessünk be, nagyon kell érteni a cégek működését. Követni kell, hogy valóban értékteremtő módon építik-e be a mesterséges intelligenciát a vállalat működésébe, vagy csupán a hype-ot kihasználva, látszatmegoldásokat vezetnek be a részvény árfolyamának minél magasabbra pumpálása érdekében.
Énekes Tamás,
a Hold Alapkezelő privátbankára
JOGI NYILATKOZAT
A dokumentumban foglaltak nem minősülnek befektetési ajánlatnak, ajánlattételi felhívásnak, befektetési tanácsadásnak vagy adótanácsadásnak, befektetési elemzésnek, az abban foglaltak alapján a HOLD Alapkezelő Zrt.-vel szemben igény nem érvényesíthető, azokért a Hold Alapkezelő Zrt. felelősséget nem vállal.
A vendégszerzők külsős szakértők, nem a Forbes szerkesztőségének tagjai, véleményük nem feltétlenül tükrözi a Forbesét.