Microsoft, Google и OpenAI берутся за совместную разработку и контроль ИИ
Крупные организации осознают проблемы, связанные с быстро развивающимся ИИ. Согласно проекту документа, технологические фирмы должны согласовать восемь предложенных мер, касающихся безопасности, защиты и социальной ответственности. Эти меры включают в себя предоставление независимым экспертам возможности тестировать модели ИИ на предмет потенциально плохого поведения, инвестирование в кибербезопасность и поощрение третьих лиц к выявлению уязвимостей в системе безопасности. Чтобы устранить социальные риски, включая предвзятость и ненадлежащее использование, компании сосредоточатся на тщательном изучении последствий. Они также будут делиться информацией о доверии и безопасности с другими компаниями и правительством, содействуя совместному подходу к ответственной разработке ИИ. Кроме того, они планируют наносить водяные знаки на аудио- и визуальный контент, созданный искусственным интеллектом, чтобы предотвратить неправильное использование или дезинформацию. Компании обязуются использовать самые современные системы искусственного интеллекта, известные как пограничные модели, для решения серьезных проблем, с которыми сталкивается общество. Добровольный характер этого соглашения ясно демонстрирует трудности, с которыми сталкиваются законодатели, пытаясь не отставать от быстрых темпов развития искусственного интеллекта. Источник: https://ilenta.com/ai/ai_40597.html © www.iLenta.com |
Комментарии (0) | |