A GPT-4o idén májusban került a nyilvánosság elé. A debütálást megelőzően az OpenAI egy külső, a rendszer gyenge pontjait kereső biztonsági szakértőkből álló csapattal kutatta a modell kulcsfontosságú kockázatait.
Többek között olyan kockázatokat vizsgáltak, mint például annak a lehetősége, hogy a GPT-4o valakinek a hangjáról, erotikus és erőszakos tartalmakról, illetve a reprodukált, szerzői jogvédelem alatt álló hanganyagdarabokról jogosulatlan klónokat hoz létre.
Az OpenAI saját keretrendszere szerint a kutatók a GPT-4o-t "közepes" kockázatúnak találták.
Az általános kockázati szintet a négy általános kategória - kiberbiztonság, biológiai fenyegetések, meggyőzés és modell-autonómia - legmagasabb kockázati besorolásából adták.
Ezek mindegyikét alacsony kockázatúnak ítélték, kivéve a meggyőzést, ahol a kutatók úgy találták, hogy a GPT-4o egyes írásmintái jobban befolyásolhatják az olvasók véleményét, mint az ember által írt szövegek.
A címlapkép illusztráció. Címlapkép forrása: Getty Images