Новости

Компания Microsoft предупреждает о непреодолимых рисках, связанных с генеративным ИИ

20 января 2025 23:58

Исследователи из Microsoft предупреждают о серьезных вызовах, связанных с применением технологий искусственного интеллекта (ИИ). Эти выводы представлены в новом отчете компании.

В ходе анализа более 100 инструментов генеративного ИИ Microsoft выявила неизбежные уязвимости, которые могут привести к нарушениям безопасности. В компании подчеркивают, что ИИ "никогда не будет полностью безопасным", и акцентируют внимание на необходимости строгого контроля за обучением языковых моделей, а также на важности предотвращения ошибок.

Microsoft, разрабатывающая и внедряющая такие продукты на основе ИИ, как Bing Chat, GitHub Copilot, Power BI и Azure AI, осознает высокую ответственность, связанную с развитием этой технологии. Поэтому корпорация активно инвестирует в исследования, направленные на повышение безопасности ИИ.

Согласно исследованию, большие языковые модели (LLM) не только усиливают существующие риски, но и создают новые. К примеру, процесс обучения LLM на конфиденциальных или ошибочных данных может вызвать утечку информации к пользователям через модели, к тому же возможный ущерб от ИИ заранее предсказать трудно.

В целях повышения уровня безопасности специалисты Microsoft советуют придерживаться строгого контроля на всех этапах обучения LLM. Эксперты уделяют особое внимание роли человеческого фактора, а также привлечению специалистов с глубокими знаниями в предметной области, развитым эмоциональным интеллектом и высокой культурной осведомленностью для успешной работы с искусственным интеллектом.

Фото: wikimedia.commons.org/Jernej Furman (Creative Commons Attribution 2.0 Generic) 

Статьи