Американская компания OpenAI обновила политику использования чат-бота ChatGPT на основе искусственного интеллекта (ИИ), удалив оттуда прямой запрет на применение своей технологии в военных целях.
Как передает
До 10 января на странице с правилами применения продуктов OpenAI существовало положение, не разрешающее использовать ИИ для "деятельности, сопряженной с высоким риском физического вреда", включая "разработку оружия" и "военные действия". Эти нормы исключали использование ChatGPT министерством обороны или другими военизированными государственными органами.
В новой версии правил сохранился запрет на применение нейросетей OpenAI для причинения вреда себе или другим, включая создание или использование оружие, однако пункт о недопустимости использования в армии и военном деле исчез.
В OpenAI объяснили редактирование политики использования ChatGPT необходимостью упростить свод правил и принципов. В компании подчеркнули, что требование "не причинять вред себе и другим" остается максимально широким и уточнено запретом на разработку и использование оружия с помощью чат-бота.
"Любое использование наших технологий, в том числе военными, для "разработки или использования оружия, нанесения вреда другим людям или уничтожения собственности, участвовать в несанкционированной деятельности, нарушающей безопасность какой-либо службы или системы, запрещено", — сообщили представители OpenAI журналистам в ответе на запрос о комментарии.
По словам опрошенных изданием экспертов, OpenAI постепенно идет навстречу Пентагону и разведывательному сообществу США.
"Похоже, что новая политика использования ChatGPT избегает ассоциаций с военными контрактами и боевыми операциями, уделяя особое внимание оружию", — отметила профессор Ланкастерского университета и и член Международного комитета по контролю над роботизированным вооружением Люси Сучман.
Даже если ChatGPT не будет использоваться непосредственно в боевых операциях, его работа поможет армии решать задачи, связанные с военными действиями и применением насилия, отметили специалисты.