Elképzelhetetlen mértékegységekben gondolkodnak az AI-ról azok a befektetők, akik pontosan tudják, hogy a fogadásaik 95 százaléka bukó, de mégis mindent feltesznek az AI-ra. Seattle-ben néztük meg, mekkora húzása van az AI-t fejlesztő cégeknek, hogyan gondolkodik róluk az Amazon és a helyi befektetők.
„Ezt csak a Szilícium-völgyben lehet!” – válaszolta alanyom a kérdésre, hogy hogyan tudott 12 millió dollár tőkét bevonni egy AI-alapú szövegdiktáló appra, ami az interjúnk napja előtt startolt el és mindössze két hónapja fejlesztik. Persze az alapítók korombeliek, a Stanfordon diplomáztak, már három céget eladtak, és egyikük korai úttörője volt a diffúziós modelleknek, szóval sok pontot kipipálnak a pontozólapon, amit a kockázatitőke-befektetők néznek, amikor korai cégekbe tesznek pénzt.
A kulcsszó, ami ennyi pénzt képes volt megmozdítani ilyen rövid idő alatt mégis az AI.
Seattle-ben vagyunk, ebben az esős, északnyugati kikötővárosban, ami ma bizonyosan máshogy festene, ha Jeff Bezos nem innen indítja el anno az Amazont.
Az Amazon Web Services (AWS) idén másodjára szervezte meg a Generatív AI Akcelerátor (GAIA) programját, amire a világ négy égtájáról érkező 80 startup – köztük a magyar Turbine – mellett többek között engem is elhívtak.
Az AWS-ről
Az Amazon sokak számára a globális e-kereskedelem egyik koronázatlan királya. „Customer Obsession” – tartja a cég mottója: vagyis mindent és mindig a vásárlói elégedettség oltárán áldozva tesznek (és igen, ezt néha a pisiszünet bánja). Azt azonban kevesebben tudják, hogy a cég felhőszolgáltatása, az Amazon Web Services önmagában egy 25 milliárd dolláros árbevételű cég, ami iszonyatos marzsokkal dolgozik, így a cégcsoport cashflow-jának egy jelentős része a felhőből jön.
A szolgáltatás kialakulásának kereteit az Amazon másik fontos belső krédója hívta életre: minden költség-centerből profit-centert próbálnak faragni. Így az Amazon webáruház és kapcsolódó rendszereinek host-olására kialakított robusztus infrastruktúrát elkezdték mások számára is megnyitni, bérbe adni, ami az évek során egy jelentős üzletággá és egyben iparággá nőtte ki magát. Gyökeresen megváltoztatta azt, ahogy a tárhely- és számítási kapacitás kérdéséről gondolkodunk, lényegében megszüntetve a belépési korlátokat a technológia startupok számára, akik a mai napig fontos részét képezik az AWS stratégiájának.
A számukra indított Generatív AI Akcelerátor (GAIA) amellett, hogy akár 1 millió dollárnyi AWS-kreditet kínál a bekerült cégeknek, rengeteg szakmai segítséget és mentorációt is nyújt tíz héten át, valamint közös piacra lépési lehetőséget is kínál nekik a nagyvállalati és üzleti ügyfelek számára kialakított értékesítési felületén keresztül. Ezen túlmenően a startupok lehetőséget kapnak, hogy az AWS éves nagy konferenciáján, a Re:Invent-en is részt vegyenek Las Vegas-ban.
Hol innoválnak az igazán menő AI cégek?
A GAIA-t másodjára rendezi meg az AWS. A cég elköteleződését jól mutatja, hogy a tavalyi 21 résztvevő helyett idén 80 cégre bővítették a kohortot: az európai, ázsiai, latin-amerikai és észak-amerikai régióból is 20-20 cég került be a programba. Köztük volt idén a magyar Turbine, akikről már többször írtunk, társalapítójukat nemrég a legbefolyásosabb európai AI vezetők közé választották.
Az idei mezőnnyel kapcsolatban a legmeglepőbb statisztika az volt, hogy a nyolcvanból ötvenen saját AI-alapmodell fejlesztésén dolgoztak. De nagyon sokan dolgoznak valamilyen applikáción. A bevezetőben már említett diktálós cég mellett például az ukrán-amerikai Respeecher. Ők hollywoodi produkcióknak segítenek a szinkronizálásban, hangutánzásban arra az esetre, ha az adott sztár nem ér rá vagy meghalt. Dolgoztak pár hazánkban forgó nagyjátékfilmen is. Az Archetype AI pedig egy, a fizikai világot figyelő szenzoros adatokra épülő AI-modellt fejleszt, ami lekérdezéseket, adatszinkronizációt tesz lehetővé a legkülönbözőbb adattípusok között, főleg nehézipari környezetben.
Ez a pár példa nemcsak azt mutatja meg, hogy milyen széles horizonton zajlik jelenleg az AI forradalom, hanem azt is, hogy kialakult a fejlesztéseknek már az értéklánca is.
- Infrastrukturális szint. Ez maga a hardver, azaz a chipek, adatközpontok és kommunikációs protokollok világa. Itt az abszolút sztár egyelőre az Nvidia, de a nagy tech cégek is elkezdtek saját szilikon-lapkákat fejleszteni. Az Amazon már a második generációjánál tart a Trainium nevű chipkészletének, ami nevéből adódóan a modellek tréningelésére használható, míg idén állították hadrendbe az Inferentia lapkákat, amik a modellek futtatásához használhatóak. Fundamentális különbségek vannak a számítási igényben és architektúrában a modellek tanítása és futtatása között, ezért van két külön lapka-készlete az Amazonnak, azonban hosszú távon az lenne a legjobb, ha ugyanazon a rendszeren lehetne mindkét instanciát futtatni.
- Alapmodellek szintje. A jelenleg uralkodó modellek a nagy nyelvi modellek és a különféle diffúziós modellek. Ezeket olyan nagy cégek szolgáltatják, mint az OpenAI (ChatGPT), az Anthropic (Claude) vagy például a Mistral (Le Chat), akik több milliárd dollár tőkével rendelkeznek és ebből százával foglalkoztatnak a mesterséges intelligencia területén úttörő kutatókat. Itt a legnehezebb a versenybe szállás, a nagy cégeknél felhalmozódott technológiai előny sokak szerint leküzdhetetlen, az algoritmikus alapoktól induló AI-fejlesztés tőkeigényes mind az emberi erőforrás, mind az infrastrukturális költések szintjén. A jelenlegi fejlődési ütem mellett feltételezhető, hogy az alapmodellek „kommoditizálódnak”, vagyis alapvető árucikké válnak az AI-piacon, így várhatóan nem ezen a szinten van a legjobb megtérülés.
- Alapmodellek súlyozása. Ez a szint is még inkább tudományos munkának feleltethető meg, a fejlesztések itt a meglévő alapmodellek algoritmusainak súlyozásának machinációját fedik, ezzel inkrementális fejlődést érve el egy-egy speciálisabb területen.
- Alapmodellek tréningezése specializált adathalmazon. Itt kezdhetünk el már az applikációs szintről beszélgetni. A fejlesztők meglévő modelleket alkalmaznak specializált, saját maguk által gyűjtött adathalmazokon, ezzel próbálva meg versenyelőnyt szerezni és speciális esetekre fejleszteni AI-megoldásokat. Előfordul, hogy az algoritmus súlyozásába is belepiszkálnak, de nem jellemző. Ezen a szinten egyre nagyobb a verseny, egyre több cég próbálja meg egy-egy vertikum számára megoldást kínálva differenciálni magát. Innen esnek ki azok az AI megoldások, amiket a hétköznapokban mi is használunk.
- Wrapper. Az AI-fejlesztés legkevésbé erőforrásigényes szintje. Lényegében a különböző, közkeletű modellek tetejére épített, új felhasználói felületek, frontendek. Mivel a belépési korlát itt a legalacsonyabb (igazából a ChatGPT-vel is tudunk íratni saját magának alternatív felhasználói felületet), így itt is a legnagyobb a verseny.
Jellemző, hogy az igazán jó AI-startupok az értéklánc több szintjén is próbálnak innoválni.
Az AWS technológiai stack
Az AWS felhőszolgáltatása kezdetektől leginkább a startupoknak imponál, így a cég igyekszik magát az AI-érában is az induló, nagy növekedési potenciállal rendelkező technológiai cégek irányába pozicionálni. A Microsoft-OpenAI összefonódás jelentős piaci előnyt adott a Seattle-öböl túloldalán, Redmondban székelő riválisnak; a Google saját fejlesztésű Gemini-megoldásának problémáit látva az Amazon egy harmadikutas stratégiát választott. A saját fejlesztésű AI-megoldása (Amazon Q) mellett stratégiai partnerségeket kötött több AI-modellt fejlesztő vállalattal, így egy négy milliárd dolláros üzlet keretében összeállt az Anthropic-kal, de elérhetőek náluk a Mistral, a Meta LLAMA-ja és a Stability modelljei is. Ezeket a megoldásokat az Amazon BedRock termékcsalád foglalja össze.
A modellek tanítását és használatát megkönnyítendő az Amazon Web Services különböző eszközöket kínál a fejlesztők számára, amiket az Amazon SageMaker termékcsoport alatt érhetnek el a felhasználók.
Az egyik legérdekesebb megoldásuk a HyperPod, aminek segítségével a tanítási (és akár a működési) fázist lehet idő-és költséghatékonyabbá tenni azáltal, hogy a rendszer magját adó vezérlő algoritmus képes egy-egy tréning folyamat adathalmazait dinamikusan mozgatni egy adatközpontban található chipek között és a hibára futott chipeket újra is tudja kalibrálni. Ez azért fontos, mert eddig ha egy ilyen megosztott számítási teljesítménnyel futó tanítási vagy inferencia fázisban akár csak egy chip is hibára futott, az egész folyamat leállt az architektúrából adódóan. Minderről Ankur Mehrotra, az Amazon SageMaker vezetője mesélt nekünk egy háttérbeszélgetés során.
Ezekre a megoldásokra épül rá az Amazon App Studio, aminek segítségével könnyedén lehet akár a nagyvállalati környezetekben is használható applikációkat fejleszteni. (Ez az ajánlat jelenleg még bétában van.)
Az AWS stratégia dióhéjban
Jon Jones ma az AWS-en belül a globális startup üzletág új vezetője. Még a kinevezése előtt kulcsszerepe volt az Anthropic-kal kötött üzletben, valamint a Hugging Face nevű közösségi alapú, nyílt forráskódú fejlesztői eszközöket kínáló céggel kialakított együttműködést is ő hozta tető alá. A GAIA-program kibővítésével az volt a célja, hogy „all-in”-t mondjanak az eddig is sikeres – a jövőben főleg a generatív AI szegmensben fejlesztő – startup együttműködésekre. Matt Garman, az AWS CEO-ja is hangsúlyozta ezt. Hogy a felhőszolgáltatás milyen fontos az Amazonon belül, azt amúgy az is jól mutatja, hogy Garman elődje, Andy Jassy váltotta az alapító Jeff Bezost az Amazon élén. Az AWS-t használó startupok fejlődése az AWS növekedése mögött is egy komoly felhajtóerő volt.
„Egyes startupok, akik anno velünk indultak, már óriásvállalatokká váltak, mint például a Netflix. Ebben a szellemben szeretnénk megtalálni és a legkorábbi fázisoktól támogatni a jövő meghatározó vállalatait, és úgy hisszük ezek a cégek generatív AI világából fognak kinőni.” Jones szerint úgy működnek, mint egy kockázatitőke-befektető, csak nem tőkét, hanem a szolgáltatásaikra elkölthető krediteket adnak a startupoknak. Az AWS tervei szerint idén 230 millió dollárnyi kreditet különített el generatív AI csapatok támogatására.
Jon Jones elődje, Howard Wright az Nvidiához igazolt, mint az ottan startup program új vezetője és szintén részt vett az eseményen. A két cég között továbbra is szoros az együttműködés, a GAIA-n is kiemelt támogatóként lépett fel az AI-chipek királya. A két méter három centis, Stanfordon diplomázott Wright amúgy szereti a versenyhelyzetet, korábban két szezont töltött az NBA-ben 1990-1993 között.
Nagyágyúk Seattle-ből: AI, AI, ja és AI
Az Amazonnak nagyjából 50 épületben irodája Seattle központjában, nem egy teljesen az övék. Az innovációs ökoszisztéma első szereplői, és ez abból is látszódik, hogy kiket hívtak össze a startup programjukra. Az egyik legnagyobb név Greg Gottesman volt. A seattlei befektetői ökoszisztéma meghatározó alakja, a Madrona Capital egyik első vezetője, akik az Amazon első befektetői voltak. Jelenleg a Pioneer Square Labs (PSL) nevű startupstúdiót vezeti, és természetesen főleg AI-megoldásokkal foglalkozó cégeket építenek házon belül. (Neki már csak azért is örültem, mert a PSL-nél dolgozik a kedvenc podcastem, az Acquired egyik műsorvezetője is!) Beszélgethettünk Yifan Zhanggal, az Allen Institute for Artificial Intelligence (AI2) inkubátorának vezetője. Ő a Paul Allen – Gates mellett a Microsoft társalapítója volt – hagyatékából létrehozott kutatóintézetben felhalmozott tudást próbálja meg piacra vinni. Meghívták Sheila Gulatit is a Tola Capitaltól, ők 3-4 éve fordultak a nagyvállalati Saas-cégek felől az AI, pontosabban kizárólag az AI irányába. Jelen volt Chris Picardo, a Madrona Capital egyik jelenlegi partnere, aki főleg biotech és AI vonalon mozog (az egyetlen, aki az AI mellett mással is foglalkozik).
A leginkább mellbevágó megtapasztalni az volt, hogy ebben a világban tényleg minden az AI-ról szól most, még úgy is, hogy a jelenlévő befektetők közül volt, aki azt mondta, pontosan tudja, hogy a fogadásaik 95%-a le fog nullázódni, de akkor se tenne máshova pénzt. Mi az, ami meghatározza a gondolkodásukat és az ökoszisztémát? Haladjunk pontról pontra.
AI-fejlesztés és az akadémia kapcsolata
Nagyon fontos új kutatások esnek ki az akadémiai szférából a mesterséges intelligencia területén, és ezek megfelelő üzleti hasznosításában lehet annak a kulcsa, hogy az alapmodellek kérdése ne legyen egy már lefutott meccs.
Az itteni befektetők szerint akár több száz konkurens AI-alapmodell is kialakulhat a következő években és mindnek meglesz a saját létjogosultsága!
Az Általános Mesterséges Intelligenciáról szerintük még nem érdemes beszélni, az AI-agentek (önműködő, célorietált AI-modellek) viszont mindent megváltoztatnak.
AI és open source
A nyílt forráskódú (open source) kezdeményezések az AI-fejlesztések világában páratlan lehetőséget nyújtanak a befektetők számára is, mert üzletileg is értelmezhetőek. Egy-egy közösségek által fejlesztett nyílt forráskódú AI-megoldás integrációjával sokkal könnyebb licence-alapú árazást bevezetni, mint más iparágakban, illetve a kialakult fejlesztői közösségnek is óriási értéke van.
Mai AI-cégek és befektetések
„Akár csak a korai internet éveiben, most is igaz az, hogy a cégek 95 százaléka üzletileg teljesen értelmezhetetlen lesz hosszú távon, így a befektetéseink is. Viszont kimaradni abból az 5 százalékból, ami túlél, minden jelenleg elégetett befektetésnél nagyobb veszteség lenne”
Greg Gottesman, Pioneers Square Labs
A helyi befektetők szerint nem csak ők, de az egész amerikai kockázatitőkés világ az AI-befektetésekre fókuszál, a Szilícium-völgyre ez természetesen hatványozottan igaz, ahol jó pedigrével rendelkező alapítók tízmillió dollárokat tudnak bevonni gond nélkül egy ötletre (lásd nyitányunkat).
Felelős AI és a befektetői felelősségtudat
Miközben tényleg minden az AI-ról szólt, a helyi nagymenők látják magukat kívülről is. Tisztában vannak vele, hogy a kockázatitőke-befektetések mögött húzódó motivációs keretrendszer miatt alakul ki ez a túlzott befektetési hájp, és azzal is, hogy az iparáguk nem éppen a felelősségtudat zászlóshajója.
Éppen ezért szerintük a Responsible AI (felelős mesterségesintelligencia-fejlesztés és a felhasználás jogi és társadalmi kereteit kialakítani kívánó kezdeményezés) jó irány, viszont nem a befektető felelőssége ezt szem előtt tartani.
Az ő felelősségük a minél jobb megtérülés. Az akadémia, a fejlesztők és az állam feladata az adekvát szabályozási keretek meghatározása.
Abban azonban mindannyian egyetértenek , hogy az AI felelőtlen kezekben óriási kockázat. Greg Goettsman arra is kitért, hogy szerinte a felelős AI-használat a mostaninál is mélyebbre fogja szántani az amerikai és a globális társadalomban húzódó jóléti szakadékot, amire viszont senki nincs felkészülve, szemben az ún. „Skynet szcenáriókkal”. Ez azokat a forgatókönyveket fedi, amikor az AI öntudatra ébred, mint a Terminátor filmekben szereplő mesterséges intelligencia. Ettől azért még elég messze vagyunk, az Nvidia grafikonja viszont mutatja, hogy Goettsman felvetése bőven a ma problémája. Ő már csak tudja, hiszen korai felfedezettje, Jeff Bezos ma a világ egyik leggazdagabb embere.
A magyar rögvalóságból nézve mind az Amazon, mind a kockázati tőkebefektetők hozzáállása értelmezhetetlennek tűnhet a mesterséges intelligenciához, a kapitalizmus őshazájában ez business as usual.
Ha abból indulunk ki, hogy az Nvidia vezér Jensen Huang mit mondott pár napja, talán kicsit jobban megértjük ezt a világot. Szerinte az AI-modellek lassan kijönnek a suliból, és munkába állnak a gazdaság különböző területein, ami a modellek inferencia-igényét a mostani milliárdszorosára növeli. Ezt a nagyságrendet el tudják képzelni és beszélnek is róla. Ha visszatekintünk, honnan indultak, van rá okunk, hogy higgyünk nekik. Ebben a milliárdszoros növekedésben fog majd aranyat érni az az 5 százalék, amit mindenki keres. Teljes őrület – és működik.