(Még akkor is, ha vannak olyan feladatok is, amelyekben a csipek járnak előrébb, és éppen az algoritmus nem elég hatékony.)
Hardveres oldalon az Nvidia emelkedik ki, a cég elképesztő sikerének fő oka, hogy gyakorlatilag egyeduralkodónak számít a gépi tanuláshoz szükséges grafikus csipek piacán. De már jönnek a speciális MI-csipek, a nagy techmamutok és a kis startupok is sorra szállna be a versenybe, az MI-csipháború pedig veszélybe sodorhatja az Nvidia egyeduralmát, és az egész piac a feje tetejére állhat. Na persze ők se hagyják magukat.
MI ez az egész felhajtás?
Aki manapság tetszőleges híroldalon felcsapja az internetet, nem nagyon tud úgy olvasgatni, hogy ne botlana bele valamilyen mesterséges intelligenciás fejlesztésbe. Az MI szinte mindenben ott van: a képfelismerést lehetővé tevő számítógépes látás, a hangvezérlésű digitális asszisztensek beszédfelismerése, a valós idejű szövegfordítás, az önvezető autók, a pontosabb rákdiagnózis vagy éppen a személyre szabott gyógyszerek is mind ezen alapulnak.
Pontosabban a gépi tanuláson. A “mesterséges intelligencia” ugyanis nem egyetlen konkrét módszert jelent, és az utóbbi évek leglátványosabb eredményei főleg a gépi tanulás nevű ágára épülnek. Ennek a lényege, hogy egy rendszert nem manuálisan programoznak be valamilyen konkrét feladatra, hanem sok-sok adattal tréningezik, hogy magától fejlődjön.
A gépi tanuláson belül is létezik többféle módszer, az egyik az idegrendszer biológiai modelljéről mintázott neurális hálóké (neural net, NN). Ezekre megint csak többféle megközelítés épül, a legnépszerűbb a mélytanulás (deep learning). Ennek a lényege, hogy a különböző típusú adatokat sok-sok külön rétegben dolgozza fel, amelyek egymásra épülnek (ettől mély). Ez a gyakorlatban arra jó, hogy az algoritmusokat strukturálatlan adatbázisokra is rá lehet ereszteni, vagyis nem kell például több ezer képet előre felcímkézni, hanem a gép a kép egyszerűbb mintázataitól a specifikusabbak felé haladva felismeri, hogy mit lát (ettől tanulás).
Ezek a mélytanulásos neurális hálózatok (deep neural network, DNN) viszont iszonyatosan számításigényesek. Ez az oka annak, hogy bár már régóta léteznek ilyenek, egészen a közelmúltig nem sokra mentek velük. Az MI-reneszánszhoz alapvetően három dolog kellett: egyrészt a szoftver, vagyis jó mélytanuló algoritmusok; másrészt rengeteg adat, amellyel ezek tréningezhetők; harmadrészt a hardver, ami elbírja ezeknek az algoritmusoknak a futtatását. Ez a hardver pedig a grafikus processzor (GPU).