Нейросети способны выявлять и распространять личные данные пользователей. Этим могут воспользоваться злоумышленники, рассказали URA.RU гендиректор ITGLOBAL.COM Security Александр Зубриков, директор сервисного центра «Printeria», программист нейросетевых интерфейсов Илья Карпук и профессор Высшей школы бизнеса НИУ ВШЭ Михаил Комаров.
«Нейросети могут искать, выявлять и даже распространять личные данные, если научить их это делать. Написав правильный запрос искусственному интеллекту, можно указать, что нужно, в каком формате и что с этим дальше делать. По большей части нейросети все равно, что это за данные. Ей важен сам формат запроса. Однако стоит обратить внимание, что разработчики искусственного интеллекта сейчас уделяют вопросу этики определенное внимание. Обезопасить себя можно, не работая с конфиденциальными данными в нейросетях, разработчиком или администратором которых являешься не ты. В остальном правила все те же: используем сложные пароли для доступа к личному кабинету, не повторяющиеся от других сервисов и убеждаемся, что авторизовываемся в том самом сервисе (проверяем доменное имя и сертификат)», — объяснил Александр Зубриков.
Илья Карпук подчеркнул, что и сами нейросети не скрывают, что могут выявлять чужие личные данные. «Давайте спросим у самого Chat GPT (чат-бот с искусственным интеллектом, — прим. URA.RU), могут ли нейросети выявлять личные данные и распространять их? Ответ: могут, но не могут самостоятельно их распространять. Однако эту информацию могут использовать злоумышленники для распространения личных данных. Можно ли как-то обезопасить себя при использовании нейросети от утечки? Ответ: одной из мер защиты будет ограничение доступа к нейросети. Это позволит ограничить доступ к данным только для авторизованных пользователей», — добавил он.
Михаил Комаров предостерег от размещения в интернете какой-либо личной информации, чтобы не было утечки. «Чат-боты анализируют ровно ту информацию, которую им предоставляет пользователь. Если данные попали в сеть, то далее уже при определенных обстоятельствах и уточняющих запросах, система может провести ассоциации с чем-то, учесть факты в рамках той или иной статистики. Все это может обернуться кражей персональной информации, банковских данных и так далее. Поэтому нужно несколько раз подумать, готовы ли вы поделиться своей геолокацией с нахождением вашего дома, когда оставляете сообщение в сети, и не раскрываете ли вы о себе дополнительную информацию, публикуя радостные сообщения, что вам одобрили кредит или вы приобрели автомобиль», — отметил он.
Ранее издание Bloomberg сообщило, что Samsung Electronics запретил своим сотрудникам пользоваться чат-ботами с искусственным интеллектом, в частности ChatGPT, Bard и Bing. Это было связано с тем, что через них утекали личные данные компании.
Сохрани номер URA.RU - сообщи новость первым!
Не упустите шанс быть в числе первых, кто узнает о главных новостях России и мира! Присоединяйтесь к подписчикам telegram-канала URA.RU и всегда оставайтесь в курсе событий, которые формируют нашу жизнь. Подписаться на URA.RU.
Все главные новости России и мира - в одном письме: подписывайтесь на нашу рассылку!
На почту выслано письмо с ссылкой. Перейдите по ней, чтобы завершить процедуру подписки.
Нейросети способны выявлять и распространять личные данные пользователей. Этим могут воспользоваться злоумышленники, рассказали URA.RU гендиректор ITGLOBAL.COM Security Александр Зубриков, директор сервисного центра «Printeria», программист нейросетевых интерфейсов Илья Карпук и профессор Высшей школы бизнеса НИУ ВШЭ Михаил Комаров. «Нейросети могут искать, выявлять и даже распространять личные данные, если научить их это делать. Написав правильный запрос искусственному интеллекту, можно указать, что нужно, в каком формате и что с этим дальше делать. По большей части нейросети все равно, что это за данные. Ей важен сам формат запроса. Однако стоит обратить внимание, что разработчики искусственного интеллекта сейчас уделяют вопросу этики определенное внимание. Обезопасить себя можно, не работая с конфиденциальными данными в нейросетях, разработчиком или администратором которых являешься не ты. В остальном правила все те же: используем сложные пароли для доступа к личному кабинету, не повторяющиеся от других сервисов и убеждаемся, что авторизовываемся в том самом сервисе (проверяем доменное имя и сертификат)», — объяснил Александр Зубриков. Илья Карпук подчеркнул, что и сами нейросети не скрывают, что могут выявлять чужие личные данные. «Давайте спросим у самого Chat GPT (чат-бот с искусственным интеллектом, — прим. URA.RU), могут ли нейросети выявлять личные данные и распространять их? Ответ: могут, но не могут самостоятельно их распространять. Однако эту информацию могут использовать злоумышленники для распространения личных данных. Можно ли как-то обезопасить себя при использовании нейросети от утечки? Ответ: одной из мер защиты будет ограничение доступа к нейросети. Это позволит ограничить доступ к данным только для авторизованных пользователей», — добавил он. Михаил Комаров предостерег от размещения в интернете какой-либо личной информации, чтобы не было утечки. «Чат-боты анализируют ровно ту информацию, которую им предоставляет пользователь. Если данные попали в сеть, то далее уже при определенных обстоятельствах и уточняющих запросах, система может провести ассоциации с чем-то, учесть факты в рамках той или иной статистики. Все это может обернуться кражей персональной информации, банковских данных и так далее. Поэтому нужно несколько раз подумать, готовы ли вы поделиться своей геолокацией с нахождением вашего дома, когда оставляете сообщение в сети, и не раскрываете ли вы о себе дополнительную информацию, публикуя радостные сообщения, что вам одобрили кредит или вы приобрели автомобиль», — отметил он. Ранее издание Bloomberg сообщило, что Samsung Electronics запретил своим сотрудникам пользоваться чат-ботами с искусственным интеллектом, в частности ChatGPT, Bard и Bing. Это было связано с тем, что через них утекали личные данные компании.