Криза на доверието: AI дава 60% грешни отговори

Изкуственият интелект породи много спорове сред специалистите за това доколко достоверни са неговите отговори. OpenAI, разработчикът на ChatGPT, въведе нов бенчмарк SimpleQA, за да оцени точността на изхода на AI моделите. Резултатите от теста разкриха сериозни проблеми с надеждността на информацията, генерирана от големите езикови модели (LLM) – средно в 60% от случаите отговорите са грешни.

Целта на новия бенчмарк е да предостави обективна оценка на точността и надеждността на LLM, които се използват все повече в различни области на живота – от образованието и разработването на софтуер до здравеопазването и правоприлагането. Тестовете показват, че дори най-напредналите модели, като o1 на OpenAI и Claude-3.5-sonnet на Anthropic, имат изключително ниска успеваемост – съответно 42,7% и 28,9% верни отговори.

Усложнявайки проблема, моделите са склонни да „надценяват своите възможности” и да генерират отговори, които са пълни глупости, известни като „халюцинации”. Тази тенденция е добре документирана и може да има сериозни последствия, особено в чувствителни области като здравеопазването и правоприлагането.

Например, AI модел, използван в болниците и изграден върху технологията на OpenAI, показва чести халюцинации и неточности при транскрибиране на взаимодействия с пациенти. Полицията в САЩ също започва да използва AI, което може да доведе до фалшиви обвинения на невинни или до субективни разследвания.

Според експерти, резултатите от тестването на бенчмарка SimpleQA са сигнал за събуждане, че настоящите LLM са крайно неспособни да предоставят надеждна информация, която отговаря на истината. „Това трябва да послужи като напомняне, че всеки резултат от LLM трябва да се приема с недоверие и да сте готови да разгледате внимателно генерирания текст”, каза говорител на OpenAI, цитиран от Futurism.

Остава отворен въпросът дали проблемът с валидността на отговорите на LLM може да бъде решен с още по-големи комплекти за обучение, както твърдят разработчиците на AI. Според някои експерти, е необходимо да се търсят нови подходи за разработване на AI модели, които да осигурят по-висока точност и надеждност на генерираната информация.

„Трябва да се съсредоточим върху разработването на модели, които могат не само да генерират правдоподобни отговори, но и да ги оценят и да отхвърлят отговор, когато не са сигурни в истината”, каза изследовател на изкуствения интелект от OpenAI.

Резултатите от тестването на бенчмарка SimpleQA подчертават необходимостта от по-нататъшни изследвания и разработки в областта на изкуствения интелект, за да се гарантира надеждността и валидността на генерираната информация. И не само това – наложително е да се предотвратят потенциалните негативни последици от използването на LLM в различни области на живота.

Източник: technews.bg

Facebook коментари

Коментари в сайта

Трябва да сте регистриран потребител за да можете да коментирате. Правилата - тук.
Последни новини