Возвращаюсь к ведению
канала с горячей темой. Появление четвёртой версии ChatGPT вызвало настоящую панику с призывами к её немедленному запрету. Действительно, в текущем виде чат-бот с генеративным искусственным интеллектом может быть очень вреден для образования в силу способности создавать весьма правдоподобные тексты, изображения и иные произведения вместо учеников. Если перейти от панического взгляда в сторону
спокойного анализа, выясняются несколько более глубоких недостатков генеративного ИИ:
1️⃣ Поиск источников информации. С точки зрения ИИ, нет никакой разницы между верифицированным источником (научной статьёй) и заметкой в таблоиде – всё это одинаковый массив данных для работы модели. Следовательно, выбор источника для генерации ответа непредсказуем, а отследить его – невозможно. С соответствующими последствиями для (не)достоверности генерируемого ответа.
2️⃣ Факты. У машины нет понимания категории эмпирического факта, тем более, необходимости опоры на него. Зато есть задача создания убедительного нарратива в заданном запросом пользователя жанре.
3️⃣ Теории. Как и с фактами, ChatGPT не понимает связей и закономерностей между объектами и явлениями. Они оказываются вместе в выдаваемом чат-ботом ответе лишь потому, что языковой алгоритм обнаруживает их по соседству в массиве данных.
4️⃣ Этика. С точки зрения ИИ, не существует этически и морально неприемлемых тем. Для того, чтобы генерируемые ответы не задевали ничьих чувств, в моделях создаются фильтры, регулирующие выдачу информации. Создаётся ситуация, когда один большой брат ограничивается другим.
5️⃣ Критический диалог. ChatGPT важно имитировать человечность, быть в глазах пользователя-человека хорошим собеседником. По словам отца чат-ботов Джозефа Вайценбаума, одной из принципиальных целей является «создавать иллюзию понимания человека».
🤯 Так что, раз всё так плохо, нужно запретить ChatGPT? Нет. Почему, и как получить от ChatGPT пользу – расскажу завтра 🔜