A számítási igények növekedésével az AI-modellek képzéséhez szükséges számítási teljesítmény költségei is az egekbe szöknek. Ennek következtében számos AI-vállalat újragondolja, hogyan képezzék generatív AI-rendszereiket, beleértve a költségek csökkentésére irányuló stratégiákat is.
A Stanford Egyetem 2024-es AI Index elemzése is jól mutatja ezeket az elszálló költségeket. Az AI Index az Epoch AI kutatócéggel közös együttműködve készült el, az elkészítés során pedig olyan AI modellek képzési költségeit becsülték meg, amelyek a felhőalapú számítási rendszerek díjain alapultak. Az elemzés során figyelembe vették a modell képzési időtartamát, a hardver kihasználtsági arányát, valamint a képzési hardver értékét is.
Az elemzésből kiderült, hogy tavaly az OpenAI GPT-4 modelljének kiképzése 78,4 millió dollárba került, ami jelentős emelkedés a Google egy évvel korábban 12,4 millió dollárba kerülő PaLM (540B) modelljéhez képest. Összehasonlításképpen, a Transformer, egy 2017-ben kifejlesztett korai AI-modell képzési költsége mindössze 930 dollár volt. Ez a modell egyébként ma is alapvető szerepet játszik számos nagy nyelvi modell architektúrájának kialakításában.
Signature Pro-val ezt a cikket is el tudnád olvasni!
Ez a cikk folytatódik, de csak Portfolio Signature előfizetéssel olvasható tovább. Lapunk kiemelt tartalmaihoz való hozzáférés díja az éves előfizetés esetén most 33%-os kedvezménnyel 19 990 forint. Választhatsz havi csomagot is, melynek költsége 2 490 forint. További információ és csatlakozás az alábbi gombra kattintva!