EventsСобытияподкасты
Loader
Свяжитесь с нами
РЕКЛАМА

ИИ с открытым и закрытым исходным кодом: в чем разница и почему это важно?

Демократизация технологий — ключевой элемент в споре
Демократизация технологий — ключевой элемент в споре Авторское право Canva
Авторское право Canva
By Pascale Davies
Опубликовано
Поделиться статьейКомментарии
Поделиться статьейClose Button
Эта статья была первоначально опубликована на английском языке

Регуляторы, стартапы и крупные технологические компании разделились на два лагеря в споре об искусственном интеллекте с открытым и закрытым исходным кодом. Среди аргументов — безопасность, прибыль и свобода технологий.

РЕКЛАМА

Между компаниями, разрабатывающими генеративный искусственный интеллект (ИИ), разворачивается борьба: один лагерь продвигает программное обеспечение с открытым исходным кодом, другой — с закрытым.

Одни настаивают на необходимости демократизации технологии, другие беспокоятся о безопасности и прибыли.

Программное обеспечение с открытым исходным кодом означает, что исходный код находится в открытом доступе для использования, изменения и распространения. Это поощряет творчество и инновации, поскольку разработчики могут использовать алгоритмы ИИ и предварительно обученные модели для развития собственных продуктов.

С другой стороны, закрытый ИИ означает, что исходный код не виден широкой публике и не может быть изменен — это может делать лишь владеющая им компания.

При этом финансировать компании, делающие продукты с открытым исходным кодом, проще, а значит, у них больше капитала для инноваций.

Что означает "открытый исходный ход"?

Инициатива открытого исходного кода (Open Source Initiative, OSI) утверждает, что "открытый исходный код означает не только доступ к исходному коду", и что он должен соответствовать 10 критериям, в числе которых наличие рекламируемых средств получения исходного кода по разумной цене или бесплатно, отсутствие дискриминации и лицензию, не ограничивающую другие программы.

Однако соблюдение всех требований OSI — большая редкость, и большинство компаний с открытым исходным кодом открыты лишь частично, как, например, французская компания Mistral. Она открывает веса своих моделей — числовые параметры, влияющие на работу ИИ, но не данные и не процесс обучения.

Технологии для всех

Компании, разрабатывающие ИИ с открытым исходным кодом, утверждают, что таким образом они делают технологии более доступными для всех.

Открытый исходный код помогает демократизировать технологическую экономику, сказал в интервью Euronews Next генеральный директор французской компании Giskard Алекс Комбесси.

"Это выравнивает игровое поле, потому что если это открытый исходный код, то он бесплатный, по крайней мере, в целом. Это значит, что мелкие игроки могут конкурировать с крупными, потому что у них есть бесплатный доступ к продуктам, — считает он. — А это очень важно, особенно в мире, где так доминируют монополии в сфере технологий".

Открытый исходный код также уравнивает политическое поле, позволяя любому желающему проверить код, он виден и регулирующим органам.

Проблемы безопасности

Однако компании, занимающиеся разработкой ИИ с закрытым исходным кодом, такие как OpenAI, создавшая ChatGPT, утверждают, что открытый исходный код угрожает нашей безопасности.

Логотип OpenAI
Логотип OpenAIMichael Dwyer/AP Photo

OpenAI изначально была основана для создания систем ИИ с открытым исходным кодом, но в 2019 году компания заявила, что выпускать языковую модель GPT в открытый доступ слишком опасно, поскольку она слишком похожа на человеческую речь и, попав в чужие руки, может генерировать высококачественные фейковые новости.

В закрытом ИИ также существует политика использования, которая вежливо отклоняет запросы, например, инструкции по созданию бомбы или разработке более смертоносного коронавируса.

Технически вы можете обойти защиту ИИ, но такие уязвимости обычно быстро устраняются.

РЕКЛАМА

В системах ИИ с открытым исходным кодом, скорее всего, будут предусмотрены меры защиты или руководство по ответственному использованию. Но как бы они ни старались бороться с опасностью, как только копия модели ИИ становится доступной, тот, у кого она есть, может самостоятельно изменить её защиту.

Ярким примером этого стал случай, когда в июле прошлого года компания Meta выпустила свою языковую модель Llama 2 с открытым исходным кодом.

Всего через несколько дней пользователи выпустили собственные версии Llama 2 без цензуры, позволяющие задавать вопросы, например, о том, как создать атомную бомбу.

Когда кто-то выпускает "нецензурную" версию модели ИИ, создатель оригинального ИИ практически никак не может этому помешать.

РЕКЛАМА

Большой технологический бизнес

В декабре компании Meta и IBM создали группу под названием AI Alliance, планирующую конкурировать с гигантами OpenAI, Google и Microsoft, работающими с закрытым исходным кодом.

AI Alliance выступает за "открытый научный" подход к ИИ и объединяет 74 компании, среди которых есть стартапы, крупные компании и некоммерческие организации.

Евродепутаты голосуют по закону об искусственном интеллекте 14 июня 2023 года в Европарламенте в Страсбурге
Евродепутаты голосуют по закону об искусственном интеллекте 14 июня 2023 года в Европарламенте в СтрасбургеJean-Francois Badias/AP Photo

"Открытый, ответственный и прозрачный подход к ИИ выгоден всем — промышленности, научным кругам и обществу в целом", — говорит стипендиат IBM, вице-президент по Европе и Африке и директор IBM Research Алессандро Куриони.

"Открытый, прозрачный и надежный ИИ поможет повысить безопасность ИИ, сделав так, чтобы открытое сообщество разработчиков и исследователей верно рассматривало риски ИИ и снижало их с помощью наиболее подходящих решений, — сказал он в интервью Euronews Next. — Это не означает, что все технологии должны быть открытыми — и, что очень важно, открытость не означает отсутствие управления. Управление одинаково важно, идет ли речь об открытом или закрытом ИИ".

РЕКЛАМА

Проблема финансирования

Адвокаты открытого исходного подчеркивают необходимость свободы и расширения границ, но в центре дискуссии, конечно, находятся деньги.

Некоторых инвесторов может отпугнуть модель с открытым исходным кодом, поскольку они чувствуют себя спокойнее, имея защищенный интернет-протокол (IP).

"Разговор с большой языковой моделью в режиме реального времени также требует больших вычислительных мощностей и связан с вычислительными облачными решениями, что не так уж дешево", — говорит специалист по изучению данных из Deloitte Теодор Чен.

"На данный момент я вижу, что всё зависит от инвестиций в монетизацию. Поэтому более передовые технологии требуют финансирования, — сказал он в интервью Euronews Next. — Монетизация также используется для развития, для создания более точных моделей, которые помогают индустрии в целом двигаться вперед".

РЕКЛАМА

Но продвигать технологию можно и с помощью моделей с открытым исходным кодом, ведь разработчики могут проявлять творческий подход и создавать новые варианты использования ИИ.

"Если больше людей получат доступ к сырью, из которого они смогут делать креативные и очень интересные вещи, то мы увидим, как технологии распространяются в направлениях, о которых вы, возможно, и не догадываетесь", — сказал Euronews Next менеджер по продуктам в Hyland Тиаго Кардосо.

Регулирование

Спор об открытом и закрытом исходном коде стал камнем преткновения для регулирующих органов в Европе и США, которые придерживаются противоположных взглядов.

В Европе закон ЕС об искусственном интеллекте, как ожидается, получит окончательное одобрение парламента в апреле. Но в его тексте говорится, что закон не будет применяться к системам ИИ с открытым исходным кодом, если они не запрещены или не классифицированы как системы ИИ с высоким риском.

РЕКЛАМА

Это радостная новость для Франции и Германии, которые на протяжении всех переговоров пытались защитить свои стартапы с открытым исходным кодом.

Тем временем в США в конце прошлого года президент Джо Байден заявил, что модели с открытым исходным кодом, которые он назвал базовыми моделями двойного назначения, "публично размещаются в интернете, что может принести существенную пользу инновациям, но также и значительные риски для безопасности, например, снятие защитных мер в рамках модели".

Байден дал министру торговли Джине Раймондо срок до июля, чтобы она пообщалась с экспертами и представила свои рекомендации.

Поделиться статьейКомментарии

Также по теме

Чат-бот Гитлера: сможет ли Европа предотвратить радикализацию ультраправых с помощью ИИ?

Влюбленный чат-бот: романтические нейросети шпионят за нами

Крупные сбои в работе Microsoft затронули пользователей по всему миру