«Моя точка зрения очень простая: запретить вообще индивидуальный контакт с человеком в области торговли с использованием персональных данных. Сплошь и рядом звонят: «Иван Петрович, мы знаем, что вы интересуетесь китайскими машинами, хотим предложить вам скидку». Такой звонок должен рассматриваться как мошенничество, по его поводу должно возбуждаться уголовное дело», — заявил на форуме об этичности искусственного интеллекта (ИИ) глава СПЧ Валерий Фадеев. Тем временем, по предсказаниям Германа Грефа, в течение ближайших трех лет каждая семья в России будет использовать технологии ИИ. О том, как РФ делает все, чтобы тема искусственного интеллекта не превратилась в агрессивную борьбу, и сколько сейчас россиян пользуется этой технологией, — в материале «БИЗНЕС Online»
Глава СПЧ Валерий Фадеев: «Говорят, журналисты вообще не нужны. Это неправда, базовая функция журналиста — поехать туда, где произошло событие, разобраться в нем и поговорить с участниками»
Фадеев: рекламные спам-звонки должны рассматриваться как мошенничество
Третий год подряд специалисты в области ИИ и представители власти собираются в Москве, чтобы обсудить этичность искусственного интеллекта. На самом деле документ, определяющий рамки этичности технологии, уже существует: он так и называется — Кодекс этики в сфере ИИ. Правда, носит он лишь рекомендательный характер, и компании присоединяются к нему на добровольной основе. Но такие бигтехи, как «Яндекс», Сбер, МТС, уже давно присоединились к кодексу. На форуме документ поддержали еще 16 организаций, в том числе 8 зарубежных. Так, общее количество государственных и коммерческих структур, поддержавших инициативу, превысило 820.
«Почему нам нужно говорить об этике сейчас, когда есть множество других насущных проблем? Я убежден, что культура ест стратегию на завтрак. Этика — это ядро любой культуры. Если мы сейчас не договоримся о ключевых принципах этики [ИИ], то вопрос благополучия нашего общества останется открытым», — сказал директор национального центра развития искусственного интеллекта (НЦРИИ) при правительстве РФ Сергей Наквасин, выступая на форуме.
Согласно Кодексу для ИИ, главный приоритет развития технологий ИИ заключается в защите интересов людей, права и свободы которых рассматриваются как наивысшая ценность. В центре внимания в документе ставятся принципы информационной безопасности, недискриминации, прозрачности и правдивости, ответственного отношения к безопасности работы с данными.
«Понимаете, когда мы вторгаемся в область частной жизни, личной жизни человека, появляются риски. А у меня вопрос: мы зачем туда вторгаемся?» — заявил на пленарной сессии глава СПЧ Валерий Фадеев. Спикер возмутился тем, что достижением прогресса сейчас считаются нейронки, которые пишут тексты и генерируют картинки. «Давайте искусственный интеллект будет писать тексты за журналистов. А зачем? Простые тексты пишут молодые начинающие журналисты, если они не будут писать простые тексты, то никогда не станут опытными. Говорят, журналисты вообще не нужны. Это неправда, базовая функция журналиста — поехать туда, где произошло событие, разобраться в нем и поговорить с участниками», — привел пример Фадеев.
В целом, по мнению спикера, регулирование отстает от прогресса. Это можно увидеть, посмотрев на криминальную статистику. Так, например, в прошлом году было совершено 38 тыс. краж (с проникновением в жилище и карманных), при этом кибермошенники провели 1 млн 170 тыс. успешных операций по незаконному выводу средств. Т. е. количество цифровых краж в 34 раза больше, чем обычных, обратил внимание спикер.
«Сейчас собраны гигантские массивы данных о каждом из нас. И безусловно, эти массивы собраны, чтобы нами манипулировать. Моя точка зрения (она вам покажется мракобесной) очень простая: запретить вообще индивидуальный контакт с человеком в области торговли с использованием персональных данных, — заявил Фадеев. — Сплошь и рядом звонят: „Иван Петрович, мы знаем, что вы интересуетесь китайскими машинами, хотим предложить вам скидку“. Такой звонок должен рассматриваться как мошенничество, по его поводу должно возбуждаться уголовное дело. Это вмешательство в личную жизнь человека. Вот что беспокоит».
Что касается этичности ИИ, представитель МИДа предложила внедрить международный опыт и помечать тексты, созданные искусственным интеллектом
Захарова: разработка норм по современным западным образцам ведется вне здравого правового поля
В международных организациях, которые вырабатывают правовые нормы ИИ, сейчас разворачивается неспортивная соревновательность, отметила официальный представитель МИД РФ Мария Захарова, которая также приняла участие в форуме.
«Я не могу сказать, что она пока похожа на борьбу без правил, пока правила есть, но они, естественно, грубо попираются, потому что у каждого свои интересы. <.> К сожалению, мы видим тенденции, говорящие о том, что разработка норм и принятие решений будут подвержены конкурентной борьбе по современным западным образцам, когда цель превыше всего, конкуренты уничтожаются, а соперничество ведется вне какого-то здравого правового поля», — указала она.
По ее словам, Россия предпринимает все усилия, чтобы тема искусственного интеллекта в международном пространстве тяготела к сотрудничеству. «И мы делаем все для того, чтобы вернуть эту ситуацию в какое-то традиционно правовое русло, чтобы тема искусственного интеллекта в международном пространстве, по крайней мере, тяготела к сотрудничеству и взаимодействию и не свалилась в пике, в которое уже свалилась в других вопросах, которые вместо арены сотрудничества превращаются в арену борьбы до уровня агрессии», — добавила Захарова.
Что касается этичности ИИ, представитель МИДа предложила внедрить международный опыт и помечать тексты, созданные искусственным интеллектом. «Государственного подхода у нас сейчас к этой теме нет, а он должен быть, потому что иначе у нас начнут выпускаться учебники, пособия для несовершеннолетних или для незащищенных социальных групп с огромным массивом этой информации и различить ее будет практически невозможно, — отметила спикер. — Не беда в том, что пока эти тексты плюс-минус на равных конкурируют с текстами, которые готовятся человеком, беда будет, когда эти тексты заполонят пространство настолько, что к ним начнут обращаться для последующей аналитики. То есть когда они станут базой для следующего этапа принятия решений».
Герман Греф считает, что в течение ближайших трех лет каждая семья в России будет использовать технологии искусственного интеллекта
«Зачем нужно сначала произвести искусственный текст, а потом воспользоваться системой, которая позволит понять, что это искусственный текст?»
В течение ближайших трех лет каждая семья в России будет использовать технологии искусственного интеллекта, заявил глава Сбера Герман Греф на «Уроке „цифры“», который прошел в тот же день. Между тем уже миллионы россиян сейчас используют ИИ. Статистику на форуме по ИИ привел старший вице-президент, руководитель блока «Технологическое развитие» Сбера Андрей Белевцев. Нейросетью «Кандинский», генерирующей картинки, за прошлый год воспользовались 12 млн человек, создано больше 200 млн изображений. Большой языковой моделью GigaChat воспользовались свыше 6 млн человек.
«Почему они это делают? Потому что им удобно, потому что им это нравится. Но с помощью инструмента можно создать что-то хорошее и полезное, а можно пытаться использовать его в каких-то нехороших целях, — отметил Белевцев. — Проблема в том, что мошенники и злые люди часто оказываются более технологически продвинутыми, чем общество. Они первые, которые бегут, пытаются найти любую технологию, а мир большой, и огромное количество этих технологий находится в открытом доступе и никак не зарегулировано».
При этом обладание и развитие ИИ являются фундаментально важными и с точки зрения развития экономики, заметил спикер. Ожидается, что в следующие пять лет генеративный искусственный интеллект добавит 3% к мировому ВВП. Но дело не только в деньгах, технология сильно упростит исследования в области здравоохранения, уверен Белевцев. «Огромное количество людей в мире не имеют доступа к лекарствам, потому что они дорогие. А почему они дорогие? Потому что фармацевтические компании, вкладывая большие деньги в исследования отдельных видов молекул, занимаясь этим несколько лет, потом хотят получать прибыль. <…> Исследование новых молекул с помощью генеративного искусственного интеллекта сокращает циклы исследования и разработки», — отметил спикер.
Но все это о будущем. А пока сам Сбер анонсировал выпуск ИИ-модели, которая будет определять тексты, написанные с помощью других ИИ-моделей… Обещают точность до 90%.
«Вот зачем нужно сначала произвести искусственный текст, а потом еще воспользоваться системой, которая позволит понять, что это искусственный текст? Может быть, его просто не надо производить?» — отреагировал глава СПЧ.
«Мне кажется, что мы недооцениваем те сценарии, в которых нам это действительно полезно», — ответил представитель Сбера. Нужно использовать ИИ как инструмент, который, к примеру, поможет подготовиться к переговорам или проведет аналитику, а не просто как вопросно-ответную машину, добавил он.
Внимание!
Комментирование временно доступно только для зарегистрированных пользователей.
Подробнее
Комментарии 3
Редакция оставляет за собой право отказать в публикации вашего комментария.
Правила модерирования.