Подписка на новости
* Поля, обязательные к заполнению
Нажимая на кнопку «Подписка на новости» Вы даёте свое согласие автономной некоммерческой организации «Центр развития филантропии ‘’Сопричастность’’» (127055, Москва, ул. Новослободская, 62, корпус 19) на обработку (сбор, хранение), в том числе автоматизированную, своих персональных данных в соответствии с Федеральным законом от 27.07.2006 № 152-ФЗ «О персональных данных». Указанные мною персональные данные предоставляются в целях полного доступа к функционалу сайта https://www.b-soc.ru и осуществления деятельности в соответствии с Уставом Центра развития филантропии «Сопричастность», а также в целях информирования о мероприятиях, программах и проектах, разрабатываемых и реализуемых некоммерческим негосударственным объединением «Бизнес и Общество» и Центром развития филантропии «Сопричастность». Персональные данные собираются, обрабатываются и хранятся до момента ликвидации АНО Центра развития филантропии «Сопричастность» либо до получения от Пользователя заявления об отзыве Согласия на обработку персональных данных. Заявление пользователя об отзыве согласия на обработку персональных данных направляется в письменном виде по адресу: info@b-soc.ru. С политикой обработки персональных данных ознакомлен.

Этика ИИ возникнет при интеграции устойчивого развития и цифровых технологий

389
Читать: 4 мин.

На заседании комиссии по бизнес-этике Ассоциации менеджеров на тему «Этика и искусственный интеллект» приглашенные эксперты обсуждали вызовы, возникающие для компаний в контексте кибербезопасности, а также решали, кто несет ответственность за деятельность ИИ.

Модератором дискуссии выступил Николай Обрезков, генеральный директор коммуникационной группы «Орта», председатель Комитета по бизнес-этике Ассоциации менеджеров. Он, в частности, сказал:

«С точки зрения применения искусственного интеллекта максимально актуальными являются вопросы предвзятости и справедливости при принятии автоматизированных решений, которые могут приводить к дискриминационным последствиям, например, в сфере образования и не только, а также вопросы безопасности и защиты от неправомерного использования конфиденциальной информации, поскольку ИИ часто используют для обработки больших массивов данных».

Максим Бузинов, руководитель R&D лаборатории Центра технологий кибербезопасности ГК «Солар», считает, что ИИ – это прежде всего инструмент, и в руках сотрудников информационной безопасности он обеспечивает защиту банковских сведений, коммерческой тайны, персональных данных, медицинской тайны, конструкторской документации, интеллектуальной собственности и другой чувствительной информации. ИИ позволяет осуществлять детектирование цифровых аномалий, сложных и таргетированных атак и фишинга, быстро выявлять скрытые угрозы и обеспечивать поддержку принятия решений сотрудникам по информационной безопасности.

«Для нас, атомщиков, основной приоритет – это сплав искусственного интеллекта с мирным атомом, мы видим значительный потенциал в Промышленном ИИ. Помимо технологического суверенитета Росатом несет ответственность за обороноспособность нашей страны, поэтому мы четко понимаем важность тандема нейросетей и ядерных технологий, которые уже развиваются во многих странах», – подчеркнул Дмитрий Тимофеев, руководитель направления АО «Росатом-Недра».

«Постоянные инвестиции в информационную безопасность – это необходимость, злоумышленники крадут персональные данные, учетные данные и коммерческие тайны. Последствия кибератак приводят к нарушениям деятельности компаний, зачастую они сопровождаются полной утратой чувствительной для бизнеса информации, а самым уязвимым звеном при совершении кибератак всегда являются люди, с использованием ИИ их легче обмануть. Поэтому так важно проводить внутренние проверки и тренинги для сотрудников, моделирующие потенциальные сценарии кибератак», – уверен Артем Попов, руководитель направления New Media агентства digital-маркетинга Icontext.

О важности фактчекинга при использовании ИИ в медиаиндустрии напомнил Павел Пучков, главный редактор Maxim Online: в противном случае медиа сталкиваются с подрывом доверия к источникам. В редакционной работе этика искусственного интеллекта все равно является этикой человеческой. Эксперт призвал средства массовой информации быть этичными по отношению к читателю, а ИИ использовать в большей степени в формате развлечения, а не в качестве эксперта.

«В глобальном контексте цифровая трансформация и устойчивое развитие были двумя наиболее значимыми мировыми тенденциями последнего десятилетия. До недавнего времени у каждого из них был свой фокус развития. Сегодня пришло время интегрировать эти направления, чтобы минимизировать риски и избежать возможного ущерба, который может быть несоизмерим с пользой, получаемой от использования цифровых технологий. Бизнес может это сделать, руководствуясь принципами корпоративной цифровой ответственности – обязанностями компании, связанными с рисками и возможностями использования цифровых технологий. Этичное использование предполагает продвижение равенства и инклюзивности, избегание дискриминации, защиту приватности, просвещение и прозрачное объяснение принципов работы используемых алгоритмов», – считает Ирина Ефремова-Гарт, директор по устойчивому развитию компании «Мобиус Технологии».

Маркетинг в крупных компаниях пользуется ИИ и нейросетями, но пока только руками подрядчиков, так как до сих пор нет договоренности, кому принадлежит результат интеллектуальной собственности. На это обратила внимание Полина Мотосова, digital-эксперт, маркетинговый консультант, экс-Head of Digital «Дикси». Она отметила, что сейчас на рынке есть точное понимание, что ИИ не заменит дизайнеров и других сотрудников, однако сам он уже стал незаменимым инструментом в работе маркетолога.

Андрей Даудрих, директор департамента социальных исследований и консалтинга ВЦИОМ, привел такие актуальные данные:

  • 85% россиян считают важным создание свода правил этики для организаций, ведущих разработки в сфере ИИ, при этом две трети из них убеждены, что он должен носить обязательный характер;
  • 67% наших сограждан выразили мнение, что технологии ИИ нужно использовать избирательно, только в некоторых сферах;
  • 77% опрошенных уверены, что требуется обязательное участие человека в оценке этичности продуктов и решений, созданных ИИ, сам ИИ на такое не способен.

Участники дискуссии пришли к общему выводу, что в условиях быстрого распространения IT-технологий компаниям следует учитывать этические принципы, а также стремиться делать технологии доступными и безопасными для всех пользователей. Такие усилия будут способствовать росту доверия со стороны клиентов, партнеров, сотрудников и инвесторов.

Фото Ассоциации менеджеров

Сообщить об опечатке

Текст, который будет отправлен нашим редакторам: