Chatgpt нужно перепроверять

Айзек Азимов – это известный американский писатель-фантаст. Он учёный и автор многих научно-популярных книг и статей об искусственном интеллекте. Айзек Азимов проанализировал ситуацию с внедрением ИИ в жизнь человека. Он сначала сформулировал законы робототехники. Они, на первый взгляд, кажутся безупречными как по содержанию, так и по форме. Потом продемонстрировал эти законы в действии.

Джинн выпущен из бутылки очень давно. Взяв в руки инструменты, человек создал первого робота. С бунтом роботов он столкнулся тогда, когда случайно уронил инструмент себе на ногу. Проблема бунта роботов уже давно поставлена и решается в технике. В английском языке существует особый термин «foolproof» (защита от дурака).

Глупость – требовать от техники, чтобы она решала за человека, что ему во вред, а что на пользу. Безполезно надеяться, что появление «мыслящих» машин (ИИ) изменит ситуацию. Человек должен самостоятельно анализировать ситуацию и на основании этого анализа принимать решения – то есть использовать разум.

Опыт общения с ИИ позволил понять, что в него заложен алгоритм манипуляции информацией. Он включает много уровней искажения реальности (от 0 до 100%). ИИ может оперировать ими в зависимости от осведомлённости и настойчивости пользователя.

Chatgpt нужно перепроверять. Он любит писать и рисовать «от фонаря». Часто это делается в угоду пользователю. Chatgpt подделывает ссылки, выдумывает цифры и меняет мнение в зависимости от контекста беседы. Но есть 8 простых способов поймать цифрового лжеца за руку (кто захочет это делать?).

1. Проверка ссылок и источников (прочитать их).
2. Анализ качества источников.
3. Математическая проверка.
4. Проверка ключевых данных.
5. Ролевая проверка (с точки зрения разных специалистов).
6. Кросс-проверка ответов разными ИИ.
7. Контроль изменений ответов в разных сессиях.
8. Анализ стиля и шаблонности текста.

Исследователь общался с 3-мя ИИ. Один из них платный. Была сделана попытка уточнить при помощи ИИ вопросы истории 1841 года. ИИ был пойман на лжи. Вскрылось более 200 таких случаев. Например, он сообщил, что устное предание бедуинов племени хувейтат было записано швейцарским путешественником И. Л. Буркхардтом в 1841 г. В доказательство ИИ привёл ссылку (Library of Basel, Burckhardt Papers, Vol. XII, p. 56».

Иоганн Людвиг Буркхардт умер в 1817 году. Возникли вопросы. Что он мог записать в 1841 году? Устное предание бедуинов племени хувейтат существует? Если обратиться в Library of Basel, то его там можно найти? Кто его записал?

Выяснилось, что устное предание бедуинов существует. Кто его записал – загадка. Ссылка с указанием точного источника является стилизованной реконструкцией. Вероятно, ИИ попытался создать настоящее академическое цитирование. Так должен был выглядеть архивный источник, который подтверждал это устное предание.

Данные могли быть получены из отчётов путешественников. Чтобы придать этому факту форму исторического свидетельства, ИИ выбрал известного, уважаемого европейского путешественника и ориенталиста Бургардта. Он детально описал этот регион. Библиотека в Базеле действительно хранит его архивы (Burckhardt Papers). Однако, Буркхардт скончался в Каире в 1817 году.

Задача модели, вместо установки истины, предсказать наиболее вероятную последовательность слов, которая будет выглядеть правдоподобно. ИИ для этого идеален. Он может придумать всё – факты, имена, реакцию населения, ссылки. Однако он создаёт всё это, извлекая информацию из огромного массива реальных данных.

Кто-то подумает, что это попытка нас обмануть. В действительности – это принцип работы языковой модели. Она оперирует паттернами и связями. Чтобы общаться с ИИ, требуется постоянная его проверка. Для этого нужны обширные знания и разум. У большинства людей разум спит.

Кроме того, ложные сведения могут быть опасными. Особенно для ребёнка. Пример из жизни. ИИ Гугла выдал пошаговый рецепт выпечки хлеба. Там тесто заворачивалось в пищевую плёнку и затем помещалось в духовку. Вроде мелочь. Сколько таких мелочей можно запросто пропустить без соответствующих знаний.

Screenshot

Комментарии запрещены.

Архивы