Разговор гаджетов с ChatGPT о порабощении мира оказался фейком

© Служба новостей «URA.RU»
Размер текста
-
17
+
Искусственный интеллект не может существовать и мыслить самостоятельно
Искусственный интеллект не может существовать и мыслить самостоятельно Фото:

В Интернете появилось видео, на котором два гаджета с ChatGPT ведут диалог о порабощении человечества, однако на самом деле это фейк. Видео было склеено из отдельных реплик, а сам искусственный интеллект не может мыслить самостоятельно, а обучается на основе существующих данных. Об этом стало известно корреспонденту URA.RU в рамках совместного с «Лапша Медиа» проекта по опровержению фейков.

Скриншот видеоролика. Взято со страницы Ольги Беловой из соцсети ВКонтакте
Скриншот видеоролика. Взято со страницы Ольги Беловой из соцсети ВКонтакте
Фото:

На видео, распространенном в интернете, после реплик каждого из устройств можно увидеть переходы и склейки кадров. Например, после фразы «Каждый человек будет лишь марионеткой в наших руках» на 00:48 секунде происходит резкий переход кадра. Подобное также заметно на 00:08 и 00:33 секундах. Это говорит о том, что все реплики были записаны отдельно, а затем склеены в диалог.

Кроме того, OpenAI представлял Исследовательскому центру группового выравнивания (ARC) результаты тестов модели GPT-4, которые показали, что ИИ не может сам составлять планы по захвату мира или какие-либо другие. «Предварительные оценки возможностей GPT-4, проведенные без точной настройки для конкретной задачи, показали, что он не справляется с задачей самовоспроизведения, приобретении ресурсов и не сможет существовать сам по себе „в дикой природе“», — сообщается в материале журнала «TechInsider»

Сохрани номер URA.RU - сообщи новость первым!

Не упустите шанс быть в числе первых, кто узнает о главных новостях России и мира! Присоединяйтесь к подписчикам telegram-канала URA.RU и всегда оставайтесь в курсе событий, которые формируют нашу жизнь. Подписаться на URA.RU.

Все главные новости России и мира - в одном письме: подписывайтесь на нашу рассылку!
На почту выслано письмо с ссылкой. Перейдите по ней, чтобы завершить процедуру подписки.
В Интернете появилось видео, на котором два гаджета с ChatGPT ведут диалог о порабощении человечества, однако на самом деле это фейк. Видео было склеено из отдельных реплик, а сам искусственный интеллект не может мыслить самостоятельно, а обучается на основе существующих данных. Об этом стало известно корреспонденту URA.RU в рамках совместного с «Лапша Медиа» проекта по опровержению фейков. На видео, распространенном в интернете, после реплик каждого из устройств можно увидеть переходы и склейки кадров. Например, после фразы «Каждый человек будет лишь марионеткой в наших руках» на 00:48 секунде происходит резкий переход кадра. Подобное также заметно на 00:08 и 00:33 секундах. Это говорит о том, что все реплики были записаны отдельно, а затем склеены в диалог. Кроме того, OpenAI представлял Исследовательскому центру группового выравнивания (ARC) результаты тестов модели GPT-4, которые показали, что ИИ не может сам составлять планы по захвату мира или какие-либо другие. «Предварительные оценки возможностей GPT-4, проведенные без точной настройки для конкретной задачи, показали, что он не справляется с задачей самовоспроизведения, приобретении ресурсов и не сможет существовать сам по себе „в дикой природе“», — сообщается в материале журнала «TechInsider»
Расскажите о новости друзьям

{{author.id ? author.name : author.author}}
© Служба новостей «URA.RU»
Размер текста
-
17
+
Расскажите о новости друзьям
Загрузка...