2025. december 23., kedd - Viktória

AI szkeptikus

AI-inferencia és az infrastruktúra átrendeződése

2025-11-25 368

Az AINEWS-on megjelent cikkre érdemes lehet odafigyelni, mivel a térség ipari-technológiai szerepe egyre növekszik! A legfrissebb iparági jelentések alapján, az AI‑kiadások az Ázsia‑Csendes‑óceáni régióban tovább emelkednek. Ahogy az AI egyre mélyebben beépül a vállalati működésbe, az mögötte húzódó technológiai és gazdasági struktúrák is jelentős átalakuláson mennek keresztül, az egyik fő cél a költséghatékonyság, de más előnyöket is hoznak az Akamai és NVIDIA-val közösen épített „Inference Cloud”.

Az ötlet ereje és egyszerűsége: ha a legtöbb AI‑alkalmazásnak valós időben kell döntéseket hoznia, akkor azokat ne távoli adatközpontokban, hanem a felhasználóhoz a legközelebb történjen. Az Inference Cloud rendszer a legújabb Blackwell GPU‑kat használja.

Az AI-rendszerek bevezetésekor a figyelem korábban elsősorban a tanítási fázisra összpontosult. Az inferencia – vagyis a napi működtetés – költségei inkább kerültek előtérbe napjainkban. Egyes vállalatoknál ezek a költségek már meg is haladják a modellképzés ráfordításait, különösen nagy nyelvi modellek és generatív AI-eszközök esetében.

A vállalatok várhatóan egyre inkább a kisebb, lokálisan futtatható AI-modellekre  fognak támaszkodni, ami lehetővé teszi a működési költségek optimalizálását, a válaszidő csökkentését, valamint az adatbiztonság fokozását. Az edge computing ebben kulcsszerepet játszik, vagyis az, hogy az adatok kerüljenek feldolgozásra ott, ahol keletkeznek.

Stratégiai előnyök:

  • Az adatok a lokális környezetben maradnak.
  • Alacsonyabb válaszidő, kisebb latencia.
  • Költséghatékonyabb működés nagy mennyiségű inferencia-feladat esetén.

A felhőalapú infrastruktúra egyelőre domináns marad, de – várhatóan – a vállalatok már most új alternatívákat keresnek. Az iparági események által is alátámasztani látszik a fókuszváltás legalábbis az EE Times cikke szerint.

A vállalatok az AI-infrastruktúrájukat egyre inkább az edge felé tolják, a technológiai háttér is jelentős átalakuláson megy keresztül. Az előrejelzések szerint az „edge-AI” eszközök száma évi 17%-os összetett növekedési ütemmel (CAGR) 2030-ra meghaladja a 2 milliárd darabot.

A változás mögött nemcsak gazdasági, hanem fizikai-technológiai szempontok is állnak. Míg a felhőalapú AI-rendszerek több gyorsítóval akár 10 000 TOPS számítási teljesítményt is elérhetnek, ezek működtetése rendkívül energiaigényes és költséges. Ezzel szemben az edge AI-eszközök jóval visszafogottabb teljesítményszinttel — jellemzően 1 és 50 TOPS között — működnek, szigorú energia- és költségkeretek között. Ez azt jelenti, hogy a chiptervezőknek egyszerre kell optimalizálniuk a sávszélességet, teljesítményt, fizikai méretet, hőelvezetést és költséghatékonyságot, hogy megfeleljenek a valós idejű, peremhálózati alkalmazások követelményeinek.

Az edge-eszközöknek jóval kisebb energiafogyasztás és költségkeret mellett kell működniük, mint a felhőalapú rendszereknek. Míg egy adatközpont képes akár 10 000 TOPS (tera művelet/másodperc) teljesítményt nyújtani, egy edge eszköznek gyakran 1–50 TOPS között kell hatékonyan működnie, mindössze 0,01–1 wattos energiahatár alatt.

Ezt a hatékonyságot újgenerációs csomagolási technológiák teszik lehetővé: ilyen például a 3D chip-stackelés, a hybrid bonding vagy a through-silicon via (TSV). Ezek a fejlesztések lehetővé teszik, hogy az inferencia-feladatok valóban helyben történjenek meg – nemcsak szoftveresen, hanem hardveres támogatással is.

Ez azt jelenti, hogy az edge computing megerősödése nem csupán üzleti döntés, hanem egy iparági szintű technológiai alkalmazkodás, amelynek gyökerei mélyen a chipiparban és rendszerarchitektúrában húzódnak.


Források:

Hírfigyelő

Kiváncsi, mit írnak a versenytársakról? Elsőként olvasná a szakmájával kapcsolatos információkat? Kulcsemberekre, projektekre, konkurensekre figyelne? Segítünk!

Ez az e-mail-cím a szpemrobotok elleni védelem alatt áll. Megtekintéséhez engedélyeznie kell a JavaScript használatát.

 

 


 

Olvasta?

Tipp

Időrendben

« December 2025 »
H K Sze Cs P Szo V
1 2 3 4 5 6 7
8 9 10 11 12 13 14
15 16 17 18 19 20 21
22 23 24 25 26 27 28
29 30 31        

Tartalom galéria

A ChatGPT karácsonyi „meglepetése”

A ChatGPT karácsonyi „meglepetése”

More details
A bankkártya-elfogadás történetében először csökkent a fizikai boltokban működő POS-terminálok száma

A bankkártya-elfogadás történetében először csökkent a fizikai boltokban működő POS-terminálok száma

More details
Kolozsváron nyit új éttermet a Simons Burger

Kolozsváron nyit új éttermet a Simons Burger

More details
Murvás parkolóból városi fejlesztés: új fejezet jöhet az Alba Pláza környékén

Murvás parkolóból városi fejlesztés: új fejezet jöhet az Alba Pláza környékén

More details
Szigorúbb szabályok jönnek a halasztott fizetésre 2026-tól

Szigorúbb szabályok jönnek a halasztott fizetésre 2026-tól

More details
A tudatos tervezés és a technológiai hatékonyság éve lesz 2026 az építőiparban

A tudatos tervezés és a technológiai hatékonyság éve lesz 2026 az építőiparban

More details
Szép ajándék a kakaó árának zuhanása – de a csokoládé ára csak jövőre követheti

Szép ajándék a kakaó árának zuhanása – de a csokoládé ára csak jövőre követheti

More details
Műszaki és jogi buktatók rejtőzhetnek az olcsó ingatlanok mögött

Műszaki és jogi buktatók rejtőzhetnek az olcsó ingatlanok mögött

More details
Kémkedő mérnökök, lopott technológiák és az AI-verseny: hogyan zárkózott fel Kína?

Kémkedő mérnökök, lopott technológiák és az AI-verseny: hogyan zárkózott fel Kína?

More details
Az Üzleti Hírszerzés portál kiadója az O|G|H - Open Gates Hungary Kft. - O|G|H - a hír szerzője