Пошуки президента Ірану: є двоє людей, що вижили
Неоголошене редагування: ChatGPT дозволили використовувати у військових цілях

Неоголошене редагування: ChatGPT дозволили використовувати у військових цілях

Як зазначає видання The Intercept, до 10 січня 2024 року сторінка "Політики використання" компанії OpenAI містила пряму заборону на "діяльність, що має високий ризик фізичної шкоди, включно з", зокрема, "розробкою зброї" і "військовими діями".

Ця чітко сформульована заборона на військове застосування, мабуть, виключає будь-яке офіційне і надзвичайно прибуткове використання Міністерства оборони або будь-якої іншої державної армії. Нова політика зберігає заборону "не використовувати наші послуги на шкоду собі або іншим" і наводить як приклад "розробку або використання зброї", але повна заборона на "військове і військове" використання зникла.

OPENAI цього тижня непомітно видалила формулювання, яке прямо забороняє використання своєї технології у військових цілях, зі своєї політики використання, що прагне визначити, наскільки потужні та надзвичайно популярні інструменти, такі як ChatGPT, можуть бути використані. Про це пише журналіст видання The Intercept Сем Біддл.

"Ми прагнули створити набір універсальних принципів, які легко запам'ятати і застосовувати, тим паче що наші інструменти тепер використовуються в усьому світі звичайними користувачами, які тепер також можуть створювати GPT", - сказав представник OpenAI Ніко Фелікс в електронному листі The Intercept. "Такий принцип, як "Не завдавай шкоди іншим", є широким, але легко зрозумілим і актуальним у багатьох контекстах. Крім того, як яскраві приклади ми спеціально навели зброю і поранення інших людей".

"З огляду на використання систем штучного інтелекту для нападу на цивільне населення в секторі Газа, це чудовий момент - ухвалити рішення видалити слова "військові та воєнні дії" з політики допустимого використання OpenAI", - сказала Сара Маєрс Вест, керівниця директора AI Now. 

Хоча ніщо з пропозицій OpenAI сьогодні не може бути використане для прямого вбивства будь-кого, у військовому чи іншому сенсі (ChatGPT не може маневрувати дроном або запускати ракети), будь-яка армія займається вбивством або, принаймні, підтримує здатність вбивати. Існує будь-яка кількість суміжних завдань, які LLM, такий як ChatGPT, може бути доповнений, наприклад, написання коду або обробка закупівель .

Експерти, які розглянули зміни в політиці за запитом The Intercept, заявили, що OpenAI, схоже, мовчки послаблює свою позицію проти ведення бізнесу з військовими. "Я можу собі уявити, що перехід від "військових і військових дій" до "зброї" залишає відкритим простір для OpenAI для підтримки операційної інфраструктури доти, доки застосунок не буде безпосередньо пов'язаний з розробкою зброї у вузькому розумінні", - сказала Люсі Сачман, почесна професорка антропології науки і техніки в Ланкастерському університеті.

"Звичайно, я думаю, що ідея про те, що ви можете зробити свій внесок у бойові платформи, заявляючи, що ви не берете участі в розробці або використанні зброї, була б нещирою, видаляючи зброю із соціотехнічної системи, включно з інфраструктурою управління і контролю, частиною якої вона є". Сачман, дослідник штучного інтелекту з 1970-х років і член Міжнародного комітету з контролю над роботизованим озброєнням, додав: "Здається правдоподібним, що новий політичний документ ухиляється від питання про військові контракти і бойові операції, приділяючи особливу увагу зброї".

ПОДЕЛИТЬСЯ
ВСЕ ПО ТЕМЕ
КОММЕНТАРИИ

НОВОСТИ ПАРТНЕРОВ
ЗНАКОМСТВА
МЫ НА FACEBOOK