Джерело : The New York Times
Нещодавні масштабні дослідження показують, що найновіші великомасштабні моделі мови штучного інтелекту для мислення, зокрема o3 від OpenAI, дедалі частіше почали генерувати неправдиву інформацію, по суті вводячи своїх користувачів в оману.
Основні тези:
- Впровадження моделей штучного інтелекту від Google та DeepSeek у Китаї може призвести до поширення оманливої інформації.
- Феномен «галюцинацій» у штучному інтелекті являє собою проблему, яку практично неможливо вирішити.
Що не так з окремими моделями ШІ?
Найчастіше проблеми виникають під час використання моделей штучного інтелекту, розроблених Google та китайською DeepSeek.
Аналітики визнають, що хоча їхні математичні компетенції значно покращилися, частота помилок в інших запитах продовжує зростати.
Вкрай важливо зрозуміти, перш за все, так звані «галюцинації», коли моделі повністю вигадують інформацію.
Амр Авадалл, генеральний директор стартапу Vectara, стверджує, що такі «галюцинації» неминучі, оскільки викорінити цю проблему просто неможливо.
Випадок, що ілюструє таку галюцинацію, стосувався бота підтримки ШІ для інструменту Cursor. Він неточно стверджував, що інструмент можна використовувати лише на одному комп'ютері. Це призвело до сплеску скарг і навіть видалення облікових записів користувачами. Зрештою, з'ясувалося, що компанія не впроваджувала жодних таких модифікацій — бот повністю вигадав цю інформацію.
Поділитися
Источник: online.ua