Разговор гаджетов с ChatGPT о порабощении мира оказался фейком

Искусственный интеллект не может существовать и мыслить самостоятельно
Фото: Владимир Андреев © URA.RU
В Интернете появилось видео, на котором два гаджета с ChatGPT ведут диалог о порабощении человечества, однако на самом деле это фейк. Видео было склеено из отдельных реплик, а сам искусственный интеллект не может мыслить самостоятельно, а обучается на основе существующих данных. Об этом стало известно корреспонденту URA.RU в рамках совместного с «Лапша Медиа» проекта по опровержению фейков.

Скриншот видеоролика. Взято со страницы Ольги Беловой из соцсети ВКонтакте
Фото: https://vk.com/wall201253871_10129
На видео, распространенном в интернете, после реплик каждого из устройств можно увидеть переходы и склейки кадров. Например, после фразы «Каждый человек будет лишь марионеткой в наших руках» на 00:48 секунде происходит резкий переход кадра. Подобное также заметно на 00:08 и 00:33 секундах. Это говорит о том, что все реплики были записаны отдельно, а затем склеены в диалог.
Кроме того, OpenAI представлял Исследовательскому центру группового выравнивания (ARC) результаты тестов модели GPT-4, которые показали, что ИИ не может сам составлять планы по захвату мира или какие-либо другие. «Предварительные оценки возможностей GPT-4, проведенные без точной настройки для конкретной задачи, показали, что он не справляется с задачей самовоспроизведения, приобретении ресурсов и не сможет существовать сам по себе „в дикой природе“», — сообщается в материале журнала «TechInsider»
Материал из сюжета:
Опровержение фейковой информацииНе упустите шанс быть в числе первых, кто узнает о главных новостях России и мира! Присоединяйтесь к подписчикам telegram-канала URA.RU и всегда оставайтесь в курсе событий, которые формируют нашу жизнь. Подписаться на URA.RU.