Az OpenAI következő MI-modelljének teljesítménye már kisebb javulást mutat a GPT-4-hez képest, mint amekkora a korábbi iterációk egymáshoz mért fejlődése volt, ami annak a jele lehet, hogy a generatív mesterséges intelligencia kezdi megközelíteni a lehetőségeinek határait – számolt be a The Information. A lap az OpenAI meg nem nevezett munkatársaira hivatkozva arról ír, hogy a jelenség különösen a kódolás területén nyilvánvaló, ez pedig egybevág azokkal a véleményekkel, amelyek szerint a vezető modellek képességei egyre kisebb mértékben lesznek fejleszthetők.
Bár az Orion képzése még nem fejeződött be, és megjelenéséig még sokkal jobbá válhat, így sem feltétlenül lesz képes olyan drámai előrelépésre, mint az előző kiadások. Ennek oka a cikk alapján a képzési adatok és a számítási teljesítmény korlátaiban keresendő. A Business Insider riportja is idézi azokat az előrejelzéseket, amelyek szerint az MI-cégek akár már 2028-ra kimeríthetik a használható szöveges adatokat, a szintetikus adatok alkalmazása pedig önmagában is új problémákat vet fel a modellek tanításakor. Ugyanígy a számítási teljesítmény sem korlátlan, és a számítási erőforrások elosztása egyre nagyobb kihívást jelent.
A teljes cikk a bitport.hu oldalán >>