В Интернете появилось видео, на котором два гаджета с ChatGPT ведут диалог о порабощении человечества, однако на самом деле это фейк. Видео было склеено из отдельных реплик, а сам искусственный интеллект не может мыслить самостоятельно, а обучается на основе существующих данных. Об этом стало известно корреспонденту URA.RU в рамках совместного с «Лапша Медиа» проекта по опровержению фейков.
Скриншот видеоролика. Взято со страницы Ольги Беловой из соцсети ВКонтакте
Фото: https://vk.com/wall201253871_10129
На видео, распространенном в интернете, после реплик каждого из устройств можно увидеть переходы и склейки кадров. Например, после фразы «Каждый человек будет лишь марионеткой в наших руках» на 00:48 секунде происходит резкий переход кадра. Подобное также заметно на 00:08 и 00:33 секундах. Это говорит о том, что все реплики были записаны отдельно, а затем склеены в диалог.
Кроме того, OpenAI представлял Исследовательскому центру группового выравнивания (ARC) результаты тестов модели GPT-4, которые показали, что ИИ не может сам составлять планы по захвату мира или какие-либо другие. «Предварительные оценки возможностей GPT-4, проведенные без точной настройки для конкретной задачи, показали, что он не справляется с задачей самовоспроизведения, приобретении ресурсов и не сможет существовать сам по себе „в дикой природе“», — сообщается в материале журнала «TechInsider»
Сохрани номер URA.RU - сообщи новость первым!
Не упустите шанс быть в числе первых, кто узнает о главных новостях России и мира! Присоединяйтесь к подписчикам telegram-канала URA.RU и всегда оставайтесь в курсе событий, которые формируют нашу жизнь. Подписаться на URA.RU.
Все главные новости России и мира - в одном письме: подписывайтесь на нашу рассылку!
На почту выслано письмо с ссылкой. Перейдите по ней, чтобы завершить процедуру подписки.
В Интернете появилось видео, на котором два гаджета с ChatGPT ведут диалог о порабощении человечества, однако на самом деле это фейк. Видео было склеено из отдельных реплик, а сам искусственный интеллект не может мыслить самостоятельно, а обучается на основе существующих данных. Об этом стало известно корреспонденту URA.RU в рамках совместного с «Лапша Медиа» проекта по опровержению фейков. На видео, распространенном в интернете, после реплик каждого из устройств можно увидеть переходы и склейки кадров. Например, после фразы «Каждый человек будет лишь марионеткой в наших руках» на 00:48 секунде происходит резкий переход кадра. Подобное также заметно на 00:08 и 00:33 секундах. Это говорит о том, что все реплики были записаны отдельно, а затем склеены в диалог. Кроме того, OpenAI представлял Исследовательскому центру группового выравнивания (ARC) результаты тестов модели GPT-4, которые показали, что ИИ не может сам составлять планы по захвату мира или какие-либо другие. «Предварительные оценки возможностей GPT-4, проведенные без точной настройки для конкретной задачи, показали, что он не справляется с задачей самовоспроизведения, приобретении ресурсов и не сможет существовать сам по себе „в дикой природе“», — сообщается в материале журнала «TechInsider»