Dirbtinio intelekto industrijos milžinė „OpenAI” oficialiai išsklaidė gandus apie galimą perėjimą prie „Google” Tensor Processing Units (TPU) infrastruktūros. Bendrovė patvirtino, kad jos pagrindiniai produktai, įskaitant populiarųjį „ChatGPT”, artimiausiu metu ir toliau veiks naudodami „Nvidia” bei „AMD” grafinius procesorius (GPU).
TPU populiarumas auga, bet ne „OpenAI” kieme
„Google” TPU lustai, ilgą laiką buvę beveik išskirtinai technologijų giganto vidiniam naudojimui, pastaruoju metu sulaukė platesnio susidomėjimo. Prie šios infrastruktūros jau prisijungė tokie žaidėjai kaip „Apple”, dirbtinio intelekto startuoliai „Anthropic” ir Ilya Sutskever vadovaujama „Safe Superintelligence”.
Nepaisant augančio TPU patrauklumo rinkoje, „OpenAI” vadovybė aiškiai komunikuoja – jų kelias kitas. „Perėjimas prie TPU architektūros pareikalautų fundamentalių programinės įrangos pakeitimų ir milžiniškų investicijų į infrastruktūros pertvarką. Tai neatitinka mūsų dabartinės strategijos”, – neoficialiai komentavo bendrovės atstovai.
Nuosavas lustas – atsakymas į priklausomybės iššūkį
Vietoj prisitaikymo prie „Google” sprendimų, „OpenAI” pasirinko ambicingesnį kelią – kurti savo specializuotą AI procesorių. Šis projektas, kurio dizaino fazė turėtų būti užbaigta jau 2025 metais, atspindi bendrovės siekį sumažinti priklausomybę nuo išorinių tiekėjų.
Nuosavo lusto kūrimas nėra vien techninis sprendimas – tai strateginis žingsnis, galintis iš esmės pakeisti dirbtinio intelekto industrijos galios balansą. Turėdama savo procesorius, „OpenAI” galėtų:
- Optimizuoti lustus specifiškai savo modelių poreikiams
- Geriau kontroliuoti tiekimo grandinę ir kaštus
- Išvengti potencialių tiekimo sutrikimų
- Kurti unikalias technologines inovacijas
„CoreWeave” lieka pagrindiniu partneriu
- „Ignitis grupė“ pradeda statyti milžiniškus energijos kaupiklių parkus – kas keisis mūsų namuose?
- Elektros kainos nuo liepos 1 d.: kas pasikeitė ir ką reikia žinoti vartotojams
- Ant automobilio pastebėjote vandens butelį? Čia ir dabar kvieskite policiją
- Rimtas įspėjimas iš „Swedbank”: sukčiai niekur nedingo, vis dažniau skambina ir apsimetinėja banko darbuotojais
- Robotizacija spartėja. „Amazon” masiškai mažina etatus, nes nebereikia žmonių
Kalbant apie dabartinę infrastruktūrą, „OpenAI” ir toliau remiasi „CoreWeave” – debesų kompiuterijos tiekėju, specializuojančiu GPU paslaugose. Ši partnerystė užtikrina prieigą prie galingų „Nvidia” procesorių, kurie šiuo metu yra de facto standartas treniruojant ir paleidžiant didelius kalbos modelius.
„Reuters” pranešimai apie bendradarbiavimą su „Google Cloud” buvo iš dalies klaidinantys. „OpenAI” paaiškino, kad bet kokie kontaktai su „Google” debesų infrastruktūra apsiriboja eksperimentiniais testais ir papildomo pajėgumo užtikrinimu pikinio apkrovimo metu. Pagrindinė skaičiavimo našta ir toliau tenka „Nvidia” GPU klasteriams.
Technologinė nepriklausomybė kaip konkurencinis pranašumas
„OpenAI” sprendimas laikytis GPU infrastruktūros ir kurti nuosavą lustą atspindi platesnę technologijų industrijos tendenciją – siekį kontroliuoti kritinę infrastruktūrą. Kai dirbtinio intelekto modeliai tampa vis sudėtingesni ir resursų imlūs, gebėjimas valdyti savo technologinį likimą tampa esminiu konkurenciniu pranašumu.
Ateities perspektyvos
Artimiausioje ateityje „ChatGPT” vartotojai nepajus jokių pokyčių – sistema ir toliau veiks ant įprastos infrastruktūros. Tačiau ilgalaikėje perspektyvoje „OpenAI” strategija gali lemti reikšmingus pokyčius:
- Inovacijų sparta – nuosavas lustas leistų greičiau diegti naujoves
- Kaštų optimizavimas – ilgainiui sumažintų priklausomybę nuo brangių išorinių sprendimų
- Technologinis pranašumas – unikalūs sprendimai, neprieinami konkurentams
„OpenAI” kelias rodo, kad dirbtinio intelekto industrija vis labiau juda link vertikalios integracijos, kur lyderiai siekia kontroliuoti ne tik algoritmus ir duomenis, bet ir pačią techninę infrastruktūrą. Tai žada ne tik didesnę nepriklausomybę, bet ir galimybę kurti iš tiesų revoliucinius technologinius sprendimus.