2025. december 30., kedd - Dávid

AI szkeptikus

„Az OpenAI kiszabadította a gigászt” – Letölthetővé vált a GPT-120B!

2025-08-12 578

2025 augusztusában az OpenAI meglepetésszerű bejelentéssel rukkolt elő: nyílt forráskódú, 120 milliárd paraméteres nyelvi modellt adott közre, GPT-OSS néven. A lépés jelentős mérföldkő az MI-fejlesztések történetében – és üzenet a piaci szereplőknek: az open source újra erőre kapott.

Mi ez pontosan?

A letölthető modell neve: GPT-OSS-120B.
Ez egy szupermasszív nyelvi modell, amely:

  • 120 milliárd paraméterrel dolgozik (ez háromszor nagyobb, mint a LLaMA 2-70B),
  • többnyelvű szövegértésre, szövegírásra, kódolásra is alkalmas,
  • teljesítménye eléri vagy meghaladja a GPT-3.5 szintjét bizonyos benchmarkokban,
  • kereskedelmi célra is szabadon felhasználható – ami ritkaságszámba megy a nagy modellek között.

Miért nagy szám ez?

A 2023–2024-es években a nyílt nyelvi modellek (pl. Mistral, LLaMA) egyre jobbá váltak, de a legnagyobb modellek – mint a GPT-4 vagy Claude 3 – zártak maradtak. Az OpenAI most ezt a trendet megfordította: olyan méretű modellt tett közzé, amelyet eddig csak egyes cégek futtathattak.

Letölthető lesz?

Már az: https://openai.com/open-models/?utm_source=chatgpt.com

Miben más, mint a GPT-4?

Ez nem a GPT-4 nyílt változata. A GPT-OSS egy másik architektúrára épülő, kisebb tudásbázisú, de teljesen nyílt alternatíva – viszonyítás képpen inkább gondoljuk, hogy a GPT-3.5 és LLaMA 3 közötti rést célozza meg, és célja nem a dominancia, hanem a széleskörű kutatási és fejlesztési felhasználás.

Mekkora rendszer kell a GPTOSS120B-hez?

Mivel a modell tesztelése hatalmas hardverigénnyel járna, saját benchmarkot nem futtattunk. Ehelyett a témát megvitattuk a GPT-4o és a GPT‑5 Thinking mesterséges intelligenciákkal. Amennyiben a válaszaik halucinációmentesek voltak (amit a jelenlegi ismeretekkel nem lehet teljes bizonyossággal ellenőrizni), akkor a következő, a TechRadar tesztjével kiegészített becslések szolgálhatnak kiindulópontként a hardverigények megértéséhez.(A következő szakasz a ChatGPT segítségével készült).

A TechRadar cikke szerint a modell akár gyengébb gépeken is működésre bírható – ez azonban valószínűleg demonstrációs vagy korlátozott célú tesztelésre érthető. A tényleges felhasználási mód – például kutatás, fejlesztés vagy alkalmazásépítés – jelentősen megnöveli az erőforrásigényt. A válaszidő, a stabilitás és a hatékonyság nagyban függ a promptok összetettségétől, a párhuzamos folyamatok számától és az operációs környezettől is. Gördülékeny, hosszú távon is megbízható használathoz tehát erősebb infrastruktúra szükséges – különösen professzionális környezetben.- vélte az AI.

A GPT5 Thinking minimum javaslata (egyszálas, közepes kontextusú inferenciához):

  • GPU: 1 × 80 GB HBM GPU
  • (pl. NVIDIA H100 / A100 80 GB vagy AMD MI300X – utóbbi akár 192 GB HBM-mel)
  • CPU / RAM: 32–64 magos CPU és 128–256 GB RAM
  • Tárhely: 1–2 TB NVMe SSD (legalább 7 GB/s írás/olvasás), a modell súlyai és gyorsítótárai miatt

Ez az ajánlás egybevág az OpenAI közlésével is, miszerint a GPT‑OSS‑120B „80 GB GPU-memóriában elfér”.

A GPT4o kissé magasabb becslést adott, mivel az inferencia mellett a kényelmes és párhuzamos használatot próbálta figyelembe venni. Az általa javasolt konfiguráció már adatközponti szintű hardvert feltételezett, így azt jelen cikkben nem részletezzük, mivel a legtöbb felhasználó számára nem releváns.

Mi következik?

A mesterséges intelligencia világában ez a bejelentés újraéleszti a versenyt a nyílt modellek térnyeréséért, és lehetőséget ad független fejlesztőknek, kutatóknak, startupoknak is, hogy magas szintű MI-eszközökkel dolgozzanak – felhő nélkül, saját infrastruktúrán.

A mesterséges intelligencia jövője nyitottabb, mint valaha – de csak azoknak, akik tudják, mire nyílik az ajtó.

Hírfigyelő

Kiváncsi, mit írnak a versenytársakról? Elsőként olvasná a szakmájával kapcsolatos információkat? Kulcsemberekre, projektekre, konkurensekre figyelne? Segítünk!

Ez az e-mail-cím a szpemrobotok elleni védelem alatt áll. Megtekintéséhez engedélyeznie kell a JavaScript használatát.

Események

Error: No articles to display


 

 


 

Népszerű tartalmak

Error: No articles to display

Tartalom galéria

A ChatGPT karácsonyi „meglepetése”

A ChatGPT karácsonyi „meglepetése”

More details
A bankkártya-elfogadás történetében először csökkent a fizikai boltokban működő POS-terminálok száma

A bankkártya-elfogadás történetében először csökkent a fizikai boltokban működő POS-terminálok száma

More details
Kolozsváron nyit új éttermet a Simons Burger

Kolozsváron nyit új éttermet a Simons Burger

More details
Murvás parkolóból városi fejlesztés: új fejezet jöhet az Alba Pláza környékén

Murvás parkolóból városi fejlesztés: új fejezet jöhet az Alba Pláza környékén

More details
Szigorúbb szabályok jönnek a halasztott fizetésre 2026-tól

Szigorúbb szabályok jönnek a halasztott fizetésre 2026-tól

More details
A tudatos tervezés és a technológiai hatékonyság éve lesz 2026 az építőiparban

A tudatos tervezés és a technológiai hatékonyság éve lesz 2026 az építőiparban

More details
Szép ajándék a kakaó árának zuhanása – de a csokoládé ára csak jövőre követheti

Szép ajándék a kakaó árának zuhanása – de a csokoládé ára csak jövőre követheti

More details
Műszaki és jogi buktatók rejtőzhetnek az olcsó ingatlanok mögött

Műszaki és jogi buktatók rejtőzhetnek az olcsó ingatlanok mögött

More details
Kémkedő mérnökök, lopott technológiák és az AI-verseny: hogyan zárkózott fel Kína?

Kémkedő mérnökök, lopott technológiák és az AI-verseny: hogyan zárkózott fel Kína?

More details
Az Üzleti Hírszerzés portál kiadója az O|G|H - Open Gates Hungary Kft. - O|G|H - a hír szerzője