ChatGPT стал медленнее работать, а качество текстов стало хуже, чем в его первоначальных версиях, в силу особенностей больших языковых моделей. Но если им и станут чаще пользоваться дети, чат не отучит их думать. Об этом в интервью корреспонденту URA.RU рассказал изобретатель, доктор технических наук Владимир Арлазаров.
«Изначально ChatGPT брал уникальные тексты, написанные человеком, и на их основе создавал свои. Когда языковая машина получила широкое распространение у пользователей всего мира, в сети, откуда чат обучался изначально, стали появляться тексты, которые не требовали от авторов особого смысла, например, реклама. Большие языковые машины плохо учатся на результатах своей деятельности, это их особенность. Они создают симулякр, с помощью которого можно научить еще худший симулякр, и так — до бесконечности», — пояснил Владимир Арлазаров.
Собеседник агентства считает: ChatGPT не сможет отучить детей думать, несмотря на возникающие в сети опасения родителей. Детям, так или иначе придется думать, когда перед ними будут ставить творческие задачи, что потребуют от них уникальных решений и действий. С завидной регулярностью, обратил внимание ученый, в нашем быту появляются вещи, которые, с точки зрения родителей, могут отучить детей думать.
«Например, с появлением калькулятора родители когда-то переживали, что дети разучатся считать, но ведь этого не произошло. ChatGPT — инструмент для выполнения рутинных текстовых задач, написания рефератов и курсовых, которые после сдачи можно смело отправить в корзину без ущерба науке и обществу. Если мы говорим о создании уникальных творений, рабочих процессах, то думать ребенку придется», — рассказал доктор технических наук Арлазаров.
Сохрани номер URA.RU - сообщи новость первым!
Не упустите шанс быть в числе первых, кто узнает о главных новостях России и мира! Присоединяйтесь к подписчикам telegram-канала URA.RU и всегда оставайтесь в курсе событий, которые формируют нашу жизнь. Подписаться на URA.RU.
Все главные новости России и мира - в одном письме: подписывайтесь на нашу рассылку!
На почту выслано письмо с ссылкой. Перейдите по ней, чтобы завершить процедуру подписки.
ChatGPT стал медленнее работать, а качество текстов стало хуже, чем в его первоначальных версиях, в силу особенностей больших языковых моделей. Но если им и станут чаще пользоваться дети, чат не отучит их думать. Об этом в интервью корреспонденту URA.RU рассказал изобретатель, доктор технических наук Владимир Арлазаров. «Изначально ChatGPT брал уникальные тексты, написанные человеком, и на их основе создавал свои. Когда языковая машина получила широкое распространение у пользователей всего мира, в сети, откуда чат обучался изначально, стали появляться тексты, которые не требовали от авторов особого смысла, например, реклама. Большие языковые машины плохо учатся на результатах своей деятельности, это их особенность. Они создают симулякр, с помощью которого можно научить еще худший симулякр, и так — до бесконечности», — пояснил Владимир Арлазаров. Собеседник агентства считает: ChatGPT не сможет отучить детей думать, несмотря на возникающие в сети опасения родителей. Детям, так или иначе придется думать, когда перед ними будут ставить творческие задачи, что потребуют от них уникальных решений и действий. С завидной регулярностью, обратил внимание ученый, в нашем быту появляются вещи, которые, с точки зрения родителей, могут отучить детей думать. «Например, с появлением калькулятора родители когда-то переживали, что дети разучатся считать, но ведь этого не произошло. ChatGPT — инструмент для выполнения рутинных текстовых задач, написания рефератов и курсовых, которые после сдачи можно смело отправить в корзину без ущерба науке и обществу. Если мы говорим о создании уникальных творений, рабочих процессах, то думать ребенку придется», — рассказал доктор технических наук Арлазаров.