Четири от най-популярните чатботове с изкуствен интелект (ИИ) в света допускат твърде много грешки при изготвянето на резюмета на новини, установи проучване на BBC. В повече от половината от случаите са забелязани неточности, обобщи авторитетната британска агенция за обществено радио и телевизия.
Журналистите на BBC организираха експеримент – те помолиха чатботовете ChatGPT, Microsoft Copilot, Google Gemini и Perplexity да съставят резюмета на 100 статии на агенцията, след което оцениха отговорите на системите и определиха колко точни са те. Резултатът от проучването: „51% от всички отговори на ИИ на въпроси, свързани с новини, бяха оценени като имащи значителни проблеми под една или друга форма“. Освен това: „19% от отговорите на ИИ, отнасящи се до материали на BBC, съдържаха фактически грешки, като например неправилни фактически твърдения, числа и дати“. По-специално чатботът Gemini на Google изопачи коренно изявление на Националната здравна служба на Обединеното кралство, докато ChatGPT и Copilot продължиха да смятат пенсионираните политици за активни.
Небрежното боравене с информация от страна на изкуствения интелект има системен характер, посочват британските журналисти: „Той (ИИ) трудно разграничаваше мненията от фактите, разказваше и често пропускаше съществен контекст“. Не всички системи с изкуствен интелект са се представили еднакво в изследването: „Microsoft Copilot и Google Gemini имат по-съществени проблеми от OpenAI ChatGPT и Perplexity“, заключава BBC.
Експериментът за пореден път показа, че на приемането на информация от чатботове с изкуствен интелект трябва да се гледа с известна доза скептицизъм и недоверие. ИИ се развива бързо, големи езикови модели се публикуват почти всяка седмица и грешките в такъв обем данни са неизбежни. От друга страна, „халюцинациите“, т.е. съзнателно грешните отговори вече са по-рядко срещани при усъвършенстваните системи, отколкото преди.
ИИ напредва по-бързо, отколкото предполага законът на Мур, заяви неотдавна главният изпълнителен директор на OpenAI Сам Алтман в личния си блог, но за момента прекаленото доверие към чатботовете не е вариант, особено когато става въпрос за новинарски статии.