В РПЦ захотели запретить нейросетям использовать лица людей для неодушевленных предметов. С такой инициативой выступил председатель комиссии иерей Федор Лукьянов в ходе круглого стола, посвященного обсуждению правового урегулирования нейросетей и других технологий.
«Необходимо установить запрет на применение в программах и технологиях ИИ человеческих голосов, лиц, т. е. образа и подобия человека и его качеств как живого существа», — приводит слова Лукьянова «Ведомости». Он добавил, что запрет должен касаться на перенесение человеческого образа и его свойств на неодушевленные предметы.
Ранее в Госдуме призвали ввести уголовную ответственность за использование дипфейков (технология, основанная на работе нейросети, позволяющая замещать лица на фотографиях и видео — прим. URA.RU) для мошенничества, передает «Национальная служба новостей».
Сохрани номер URA.RU - сообщи новость первым!
Подписка на URA.RU в Telegram - удобный способ быть в курсе важных новостей! Подписывайтесь и будьте в центре событий. Подписаться.
Все главные новости России и мира - в одном письме: подписывайтесь на нашу рассылку!
На почту выслано письмо с ссылкой. Перейдите по ней, чтобы завершить процедуру подписки.
В РПЦ захотели запретить нейросетям использовать лица людей для неодушевленных предметов. С такой инициативой выступил председатель комиссии иерей Федор Лукьянов в ходе круглого стола, посвященного обсуждению правового урегулирования нейросетей и других технологий. «Необходимо установить запрет на применение в программах и технологиях ИИ человеческих голосов, лиц, т. е. образа и подобия человека и его качеств как живого существа», — приводит слова Лукьянова «Ведомости». Он добавил, что запрет должен касаться на перенесение человеческого образа и его свойств на неодушевленные предметы. Ранее в Госдуме призвали ввести уголовную ответственность за использование дипфейков (технология, основанная на работе нейросети, позволяющая замещать лица на фотографиях и видео — прим. URA.RU) для мошенничества, передает «Национальная служба новостей».