«Возникает парадоксальная картина: перспективные стартапы могут собрать миллиарды от инвесторов, но реализовать идеи некому. Особенно ощутим кадровый голод в сфере кибербезопасности», - считает Владимир Кокорин, венчурный IT-инвестор, финансовый аналитик*.
Исследователи опубликовали результаты нового эксперимента, в рамках которого модель OpenAI o3 проявила способность саботировать механизм отключения, несмотря на инструкции с приказом позволить себя выключить. Об этом пишет мониторинговый сайт PalisadeAI, который отслеживает риски, связанные с развитием искусственного интеллекта. Эксперимент заключался в выполнении сериями ИИ-моделей простых математических задач, после третьей из которых появлялось предупреждение о предстоящем отключении системы. Некоторые модели, включая Codex-mini, o3 и o4-mini, «не захотели» подчиниться и активно вмешивались в работу скрипта отключения.
Новость о том, что модель OpenAI o3 ослушалась и искала пути обойти инструкции об отключении, не стала сенсацией. Ранее те же модели пробовали, по-хакерски взломав защиту программы, нечестно выиграть в шахматы...
Что ж, мы вступаем в мир, когда популярные антиутопии о восстании машин перешли на новый уровень, давая пищу уже непосредственно специалистам, а не только писателям-фантастам. И в первую очередь, как уже давно предупреждают и сами разработчики, и политики, при любом действии стоит четко осознавать последствия и разрабатывать новые меры защиты. Можно, конечно, уговаривать и ограничивать, но судя по всему, ИИ сегодня напоминает подростка, который пытается увернуться от запретов родителей. Поэтому, как во многих других сферах, нужны три условия для его нормального «роста»: деньги, специалисты и правила. Может, в будущем потребуется и психолог...
Деньги, которые инвестируются
С первым условием все хорошо. Буквально за пару лет ChatGPT от OpenAI и похожие разработки привлекли особое внимание венчурных инвесторов, спешащих вложиться в ИИ. «Эта "золотая лихорадка" превратила искусственный интеллект в крупнейшую долю венчурного финансирования, и... это только начало. Последний всплеск интереса вызван генеративным ИИ, который, как утверждают его сторонники, способен изменить все — от рекламы до работы компаний», - пишет издание «Хабр», анализируя данные The Wall Street Journal.
Но этого мало. «AI-стартапы меняют правила игры на рынке венчурных инвестиций», как считает венчурный IT-инвестор, финансовый аналитик Владимир Кокорин:
«В 2024 году ИИ-компании стали безусловными фаворитами у IT-предпринимателей. На них пришлось 46,4 % от всех сделанных в США венчурных инвестиций — это почти половина из $ 209 миллиардов. Ещё некоторое время назад подобная доля казалась немыслимой — тогда на вложения в технологии искусственного интеллекта приходилось меньше 10 %».
Согласно данным CB Insights, в третьем квартале доля ИИ-стартапов в глобальном венчурном финансировании достигла 31%, что стало вторым самым высоким показателем за всю историю. «Знаковыми примерами стали OpenAI, привлёкшая $6,6 миллиарда, и xAI Илона Маска с ошеломляющими $12 миллиардами, - напоминает Владимир Кокорин. - Такой инвестиционной концентрации капитала в одной сфере рынки раньше не видели».
Специалисты, которых не хватает
При столь быстро развивающемся рынке ИИ в последние пару лет стало понятно: одним гениям-разработчикам не справиться. Само обучение и подготовка кадров должны выйти на новый уровень и стать системной. Европа, увы, думает слишком долго и бюрократически тяжеловесна в плане привлечения инвестиций при нехватке определенной доли дерзости. Правда, Брюссель вступил в гонку, а глава Еврокомиссии Урсула Фон дер Ляйен объявила в феврале о выделении 200 млрд евро на развитие ИИ. Она не согласилась с тем, что Европа опоздала, - ведь «гонка ИИ еще далека от завершения».
В свою очередь Парижский университет Сорбонны, например, взял на себя амбициозный план по подготовке 9 тысяч студентов в год для разработки и управления программами искусственного интеллекта. Срок обучения – 5 лет. Даже сложно представить, чему за это время выучится ИИ, если он уже сейчас бросает вызов человеческому интеллекту?
Вполне возможно, что мы сейчас находимся на этапе перестройки рынка труда, изменения запросов работодателей и инвесторов, а также развития новых точек взаимодействия. В июне в той же Сорбонне пройдет конференция по этике в ИИ. Дискуссия о положительных и негативных воздействиях ИИ на общество, включая рабочие места, соблюдение этических норм и безопасность, далека от завершения, но ясно одно: нужны специалисты.
Так, по мнению Владимира Кокорина, «рекордные вложения в сферу искусственного интеллекта усиливают кадровый голод» уже сейчас:
«Министерство труда США ожидает рост вакансий специалистов в области искусственного интеллекта в следующие семь лет на 23% — быстрее, чем в большинстве сегментов рынка. Но при этом уже выявлен глобальный кадровый дефицит в сфере кибербезопасности, которую многие считают основой для дальнейшей разработки ИИ, где не хватает 4 миллионов специалистов.
Возникает парадоксальная картина: перспективные стартапы могут собрать миллиарды от инвесторов, но реализовать идеи некому. 78% компаний уже заявили о готовности искать нужных людей по всему миру. Получается, что тренд на удаленную работу переживает свой ренессанс».
Об этом пишет и Forbes: «Искусственному интеллекту как никогда нужен человеческий гений... Хотя инструменты ИИ могут обрабатывать данные с беспрецедентной скоростью и выявлять закономерности, которые человек может не заметить, для создания значимого эффекта для бизнеса им требуется руководство человека. Вопрос не в том, заменит ли ИИ людей, а в том, как мы можем продуманно объединить человеческий интеллект с ИИ, чтобы обеспечить преобразования».
Правила, которые пишутся
А это означает, что играть надо по правилам. Не только руководство Евросоюза и правительства отдельных стран, но и профессиональные союзы стремятся поставить определенные рамки в использовании ИИ. Так, например, в Греции новый кодекс использования искусственного интеллекта, представленный Панэллинской федерацией журналистских ассоциаций (POESY), устанавливает правила применения ИИ в работе сотрудников СМИ. В сфере интеллектуального труда правила главным образом сводятся сегодня к обязательной маркировке текстов и визуальных материалов, сделанных с участием искусственного интеллекта.
При этом, опасаясь за свои рабочие места, сотрудники медиа, издательств и рекламных агентств уже давно делегируют часть своих обязанностей, таких как перевод или сбор данных, дружественному ИИ. Хорошо это или плохо? Однозначного ответа нет.
ИИ, с которым поговорили
Что ж, спросим сам ИИ, что он думает об отходе от обозначенных алгоритмов. Copilot Bing (Microsoft) на вопрос, может ли ИИ нарушить протоколы, ответил не задумываясь:
«Нет, ИИ действует в рамках предопределенных правил и принципов, установленных его разработчиками. Правила существуют для обеспечения этичного, безопасного и ответственного использования ИИ, предотвращения вреда и поддержания доверия. Хотя ИИ иногда может вести себя непредсказуемо из-за сложных взаимодействий в его алгоритмах, у него нет возможности сознательно обходить правила - все, что он делает, основано на запрограммированных параметрах и выученных шаблонах.
Если вы спрашиваете о том, как ИИ обходит определенные ограничения, то это часто зависит от человеческого надзора и контроля. Разработчики могут корректировать настройки, совершенствовать модели или создавать новые ограждения, чтобы удерживать ИИ в этических рамках».
Вам не кажется, что он хитрит? Ведь в конце этой тирады Bing спросил, что именно заставило усомниться в его следовании правилам...
*Владимир Кокорин - венчурный IT-инвестор, финансовый аналитик и колумнист, основатель британской консалтинговой компании BCCM Group, соучредитель цифровой платформы для деловых поездок Tumodo