Мобиус в СМИ
14.02.2026
Этика искусственного интеллекта требует конкретизации по сферам применения
Кодекс этики в сфере искусственного интеллекта (ИИ), принятый в России в 2021 г., не в полной мере учитывает потребности рынка информационной безопасности. Об этом заявил руководитель R&D лаборатории Центра технологий кибербезопасности ГК "Солар" Максим Бузинов на заседании комиссии по бизнес-этике Ассоциации менеджеров.
Кодекс этики в сфере ИИ принят в октябре 2021 г. Авторами документа стали Альянс в сфере искусственного интеллекта, Аналитический центр при правительстве РФ и Минэкономразвития.
Выступая во вторник, 27 августа, на мероприятии Ассоциации менеджеров, посвященном вопросам этики при использовании ИИ, Максим Бузинов отметил, что Кодекс имеет конструктивное содержание, но лишь общего характера - а в силу специфики использования ИИ в разных сферах этого недостаточно. По его словам, положения Кодекса в некоторых случаях не соотносятся с потребностями сферы информационной безопасности (ИБ).
"Один из примеров - работа с персональными данными с помощью ИИ. Она должна регулироваться в отдельных сферах по-разному. Так, для медицинских учреждений данные должны быть обезличены и более закрыты. А для нас, сотрудников сферы ИБ, необходимо собирать личные данные для анализа инцидентов. Например, сведения о переписке сотрудников на корпоративных устройствах. Пример из опыта "Солар" - у нас есть модель предсказания увольнения и выгорания сотрудников. Для ее реализации необходима определенная личная и подробная информация о сотрудниках и их поведении, что вступает в полемику с рядом рекомендаций Кодекса, принятого в 2021 г.", - объяснил точку зрения Максим Бузинов.
Он отметил, в Кодексе нет разграничения по сферам и задачам, поэтому вопросы этики в сфере ИИ имеют массу проблем и вызовов, которые нужно уточнять и конкретизировать.
Директор департамента социальных исследований и консалтинга АО "Всероссийский центр изучения общественного мнения" (ВЦИОМ) Андрей Даудрих рассказал о результатах исследования общественного мнения россиян относительно применения ИИ.
По результатам опроса, который ВЦИОМ провел среди 1600 совершеннолетних россиян в сентябре 2023 г., 85% жителей России считают, что для организаций, ведущих разработки в сфере ИИ, необходим свод правил этики в сфере ИИ. 29% респондентов высказались за добровольный или рекомендательный характер свода. Каждый второй опрошенный считает, что нужен свод правил, обязательный для всех участников рынка. И только 4% участников опроса уверены, что без правил можно обойтись.
Директор по устойчивому развитию ООО "Мобиус Технологии" Ирина Ефремова-Гарт затронула вопрос более широкого понимания этики в ИИ, а также цифровой ответственности. По ее словам, обсуждая этику для ИИ, необходимо говорить не только про разработчиков, но и про тех, кто использует ИИ, и тех, кто его продает. По ее словам, эти стороны несут не меньшую ответственность, чем разработчики.
"Все, что касается этики ИИ и в целом этики использования цифры в бизнесе, корнями уходит в практики и традиции того, как бизнес для себя принимает и воспринимает корпоративную ответственность. Корпоративная цифровая ответственность - не что иное, как обязанности бизнеса", - уверена Ирина Ефремова-Гарт. Она добавила, что вокруг повестки устойчивого цифрового развития в мире происходит много событий - не меньше чем в повестке цифровой трансформации. Причем эти два направления долго развивались параллельно, не пересекаясь.
"Если посмотреть на практику разных стран, в том числе России, то буквально несколько лет назад экспертное сообщество стало говорить о том, что дальше рассматривать принципы, стандарты и этические нормы устойчивого развития и цифровой трансформации в отдельности стало невозможно. Тогда появилось понятие "корпоративная цифровая ответственность" (CDR, Corporate Digital Responsibility)", - объяснила Ирина Ефремова-Гарт. Она указала, что переход к CDR требует от всех представителей бизнеса осознания, что привычные инструменты, технологии и практики, которые не сочетаются с повесткой этой ответственности, больше не работают.
Читать далее на сайте СomNews
Кодекс этики в сфере ИИ принят в октябре 2021 г. Авторами документа стали Альянс в сфере искусственного интеллекта, Аналитический центр при правительстве РФ и Минэкономразвития.
Выступая во вторник, 27 августа, на мероприятии Ассоциации менеджеров, посвященном вопросам этики при использовании ИИ, Максим Бузинов отметил, что Кодекс имеет конструктивное содержание, но лишь общего характера - а в силу специфики использования ИИ в разных сферах этого недостаточно. По его словам, положения Кодекса в некоторых случаях не соотносятся с потребностями сферы информационной безопасности (ИБ).
"Один из примеров - работа с персональными данными с помощью ИИ. Она должна регулироваться в отдельных сферах по-разному. Так, для медицинских учреждений данные должны быть обезличены и более закрыты. А для нас, сотрудников сферы ИБ, необходимо собирать личные данные для анализа инцидентов. Например, сведения о переписке сотрудников на корпоративных устройствах. Пример из опыта "Солар" - у нас есть модель предсказания увольнения и выгорания сотрудников. Для ее реализации необходима определенная личная и подробная информация о сотрудниках и их поведении, что вступает в полемику с рядом рекомендаций Кодекса, принятого в 2021 г.", - объяснил точку зрения Максим Бузинов.
Он отметил, в Кодексе нет разграничения по сферам и задачам, поэтому вопросы этики в сфере ИИ имеют массу проблем и вызовов, которые нужно уточнять и конкретизировать.
Директор департамента социальных исследований и консалтинга АО "Всероссийский центр изучения общественного мнения" (ВЦИОМ) Андрей Даудрих рассказал о результатах исследования общественного мнения россиян относительно применения ИИ.
По результатам опроса, который ВЦИОМ провел среди 1600 совершеннолетних россиян в сентябре 2023 г., 85% жителей России считают, что для организаций, ведущих разработки в сфере ИИ, необходим свод правил этики в сфере ИИ. 29% респондентов высказались за добровольный или рекомендательный характер свода. Каждый второй опрошенный считает, что нужен свод правил, обязательный для всех участников рынка. И только 4% участников опроса уверены, что без правил можно обойтись.
Директор по устойчивому развитию ООО "Мобиус Технологии" Ирина Ефремова-Гарт затронула вопрос более широкого понимания этики в ИИ, а также цифровой ответственности. По ее словам, обсуждая этику для ИИ, необходимо говорить не только про разработчиков, но и про тех, кто использует ИИ, и тех, кто его продает. По ее словам, эти стороны несут не меньшую ответственность, чем разработчики.
"Все, что касается этики ИИ и в целом этики использования цифры в бизнесе, корнями уходит в практики и традиции того, как бизнес для себя принимает и воспринимает корпоративную ответственность. Корпоративная цифровая ответственность - не что иное, как обязанности бизнеса", - уверена Ирина Ефремова-Гарт. Она добавила, что вокруг повестки устойчивого цифрового развития в мире происходит много событий - не меньше чем в повестке цифровой трансформации. Причем эти два направления долго развивались параллельно, не пересекаясь.
"Если посмотреть на практику разных стран, в том числе России, то буквально несколько лет назад экспертное сообщество стало говорить о том, что дальше рассматривать принципы, стандарты и этические нормы устойчивого развития и цифровой трансформации в отдельности стало невозможно. Тогда появилось понятие "корпоративная цифровая ответственность" (CDR, Corporate Digital Responsibility)", - объяснила Ирина Ефремова-Гарт. Она указала, что переход к CDR требует от всех представителей бизнеса осознания, что привычные инструменты, технологии и практики, которые не сочетаются с повесткой этой ответственности, больше не работают.
Читать далее на сайте СomNews