Будущее

«Губительно для инноваций». Критики Закона об искусственном интеллекте говорят, что ЕС заходит слишком далеко

"Губительно для инноваций". Критики Закона об искусственном интеллекте говорят, что ЕС заходит слишком далеко

Закон ЕС об искусственном интеллекте, согласованный в начале месяца после 36-часовых переговоров, называют историческим, но реакция технологического сектора, правозащитных групп и политиков континента неоднозначна.

Детали законодательной инициативы ещё будут уточняться, прежде чем будет принята окончательная версия документа.

Трубочисты Петербурга

Согласно новым правилам, системы ИИ будут распределяться по четырём уровням риска. Самые жёсткие условия будут действовать для приложений с «высоким уровнем риска» или «запрещённых» в ЕС. 

Одним из спорных моментов был вопрос о том, как будут регулироваться базовые модели генеративного ИИ – технология, лежащая в основе ChatGPT от OpenAI.

Еврокомиссар по вопросам внутреннего рынка Тьерри Бретон: «Континенты, на которых действует регулирование искусственного интеллекта».

«Не лучшая идея»

Франция и Германия предостерегают от чрезмерного регулирования, поскольку они намерены защитить свои стартапы в области ИИ.

Французский президент не хочет регулировать ИИ «больше, чем другие».Damien Meyer, Pool via AP

«Мы можем принять решение о регулировании гораздо быстрее и жёстче, чем наши основные конкуренты, но при этом мы будем регулировать то, что мы больше сами не будем производить или изобретать. А это не лучшая идея», – заявил президент Франции Эммануэль Макрон 11 декабря во время выступления на тему инноваций в Тулузе.

«Франция, несомненно, является ведущей страной в области искусственного интеллекта в континентальной Европе, и мы идём вровень с британцами. Но у них не будет такого регулирования базовых моделей, и, самое главное, нам ещё далеко до китайцев и американцев», – добавил он, ссылаясь на французский ИИ-стартап Mistral.

ЕС планирует регулировать базовые модели, обеспечивая разработчиков документацией, включающей методы обучения. Всякое проявление дискриминации будет наказываться. А у пользователей появится право подавать жалобы. 

Компаниям, не соблюдающим правила, грозят штрафы в размере 35 миллионов евро или 7% от мирового дохода. Некоторые считают, что это уже слишком. 

«Потенциально катастрофические последствия»

Ассоциация компьютерной и коммуникационной промышленности (CCIA) заявила, что текст в значительной степени отходит от «разумного подхода, основанного на оценке рисков», предложенного Еврокомиссией, которая ставила инновации выше сверхрегулирования.

По мнению организации, закон налагает «жёсткие обязательства» на разработчиков передовых технологий, лежащих в основе многих систем нижнего уровня, и поэтому, скорее всего, будет препятствовать инновациям в Европе. Это может привести к оттоку талантливых специалистов в области ИИ, предупреждает организация.

«К сожалению, скорость, похоже, возобладала над качеством, что может иметь катастрофические последствия для европейской экономики. Негативные последствия могут ощущаться далеко не только в секторе ИИ», – заявил Даниэль Фридлендер, старший вице-президент и глава европейского отделения CCIA.

«Равносильно регулированию математики»

France Digitale, независимая организация, представляющая интересы европейских стартапов и инвесторов, заявила, что системы ИИ, относящиеся к категории высокого риска, должны будут получить маркировку CE, а это долгий и дорогостоящий процесс, который может навредить предпринимателям.

Однако группа приветствует тот факт, что стартапы, работающие в секторах с высоким уровнем риска, могут опротестовать этот статус и доказать, что их продукт должен быть переведён в другую категорию.

Что касается генеративного ИИ и базовых моделей, то, по мнению France Digitale, регулирование является «очень строгим» и может навредить компаниям, поскольку им придётся раскрывать свои частные бизнес-модели, которые затем смогут скопировать другие компании.

«Мы призывали не регулировать технологию как таковую, а регулировать её использование. Решение, принятое сегодня Европой, равносильно регулированию математики, что не имеет особого смысла», – заявила группа.

France Digitale также предупредила, что Брюссель может добавить дополнительные критерии через делегированные акты, что может быть рискованно для стартапов, которым «нужна видимость и предсказуемость для развития своих бизнес-моделей».

«Мы не можем менять правила игры в любой момент», – резюмируют эксперты группы.

Принятие норм авторского права

Большинство моделей искусственного интеллекта обучаются на материалах, найденных в Интернете, что уже вызвало серию исков об авторских правах, поданных художниками и представляющими их компаниями.

Закон ЕС предусматривает строгие нормы авторского права, в том числе обязательное соблюдение действующего законодательства блока. Компании также должны обнародовать краткую информацию о контенте, который они используют для обучения моделей ИИ общего назначения.

Это требование прозрачности и политика соблюдения действующих правил ЕС приветствуется Европейским авторским обществом (GESAC), которое представляет более миллиона авторов.

Кибербезопасность и распознавание лиц

Закон ЕС об искусственном интеллекте вводит строгие ограничения на использование технологии распознавания лиц и других биометрических и поведенческих сигналов, за исключением случаев, связанных с правоохранительной деятельностью.

Эти ограничения, как и правила по защите данных, в целом были восприняты положительно.

Закон разработан таким образом, чтобы действовать параллельно с Общим регламентом по защите данных (GDPR), принятым в ЕС.

Технология распознавания лиц будет подчиняться строгим правилам.Canva

Однако один из представителей отрасли кибербезопасности, Валмики Мукерджи, заявил Euronews Next, что Закон об ИИ может столкнуться с теми же проблемами, что и GDPR.

«Возможно, будет трудно применить этот закон к потребительским системам искусственного интеллекта, не ограничивая их использование путём отнесения их всех к категории «высокого риска», – пояснил он.

«Кроме того, вероятно, потребуется создать большую международную систему мониторинга. Пока неясно, как это будет сочетаться со стандартами кибербезопасности, которые ещё только разрабатываются», – добавил бизнесмен.

Мощная технология, которая выдерживает испытание временем

В то время как первоначальный проект текста доводят до ума, и этот процесс, по мнению ряда обозревателей, может продлиться до января 2024 года, существует ещё одно временное ограничение – июньские выборы в Европарламент. 

Европейские выборы, которые состоятся в июне 2024 года, устанавливают своего рода крайний срок принятия Закона ЕС об искусственном интеллекте.Canva

«Похоже, что до выборов в парламент не хватит времени, чтобы провести Закон об ИИ через весь законодательный процесс, так что этим вопросом придётся заниматься новому составу парламента и новому руководству Еврокомиссии, которое он утвердит», – отмечает Бенжамен Доккир, руководитель отдела ИТ и данных в международной юридической компании Osborne Clarke.

Еще одним фактором, который необходимо учитывать, будет регулирование программного обеспечения ИИ с открытым исходным кодом, который позволяет свободно копировать и повторно использовать компьютерный код, что даёт возможность любому человеку создать свой собственный чат-бот. OpenAI и Google предупреждают, что программное обеспечение с открытым исходным кодом может быть опасным, поскольку технология может быть использована для распространения дезинформации.

Поскольку технологии ИИ быстро развиваются, а Закон ЕС об ИИ вряд ли будет применяться странами-членами как минимум ещё два года, текст нормативного акта может быстро устареть.

«Что касается того, что может измениться в Законе об ИИ, то его авторы постарались сделать его гибким, но развитие генеративного ИИ продемонстрировало насколько сложно обеспечить устойчивость такой мощной технологии», – подытожил Доккир.

Дополнительные источники • перевод и адаптация: Alexander Kazakevich

Источник

Нажмите, чтобы оценить статью!
[Итого: 0 Среднее значение: 0]

Показать больше

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Add your own review

Rating

Кнопка «Наверх»
Яндекс.Метрика