Anthropic, OpenAI, Google DeepMind и другие технологические гиганты, занимающиеся разработкой искусственного интеллекта, уже давно заявляют о своей приверженности принципам ответственного саморегулирования. Однако, в отсутствие четких законодательных норм и правил, эта стратегия может обернуться против них.
Обещания ответственного поведения в сфере ИИ, данные компаниями, теперь ставят их в уязвимое положение. Не имея внешней защиты в виде законов, они рискуют столкнуться с серьезными проблемами, если их действия будут расценены как не соответствующие заявленным принципам. Получается, что отсутствие регулирования создает для них своеобразную ловушку.
Источник: TechCrunch
