Військова етика для штучного інтелекту

29.02.2020

Використання штучного інтелекту військовими тепер обмежена етикою. Міноборони США офіційно сформулювало етичні принципи використання штучного інтелекту у військовій сфері.

Міністр оборони США Марк Еспер офіційно оголосив, що розробники військових систем для американської армії повинні дотримуватися п’яти ключових принципів. Відповідальним за дотримання принципів використання систем штучного інтелекту призначений Об’єднаний центр штучного інтелекту Міноборони США.

Глава департаменту інформації Міноборони США Дан Дізі і керівник Об’єднаного центру штучного інтелекту генерал-лейтенант Джон Шанахан

5 етичних принципів штучного інтелекту для військових:

ВІДПОВІДАЛЬНІСТЬ. Персонал Міноборони має з належною увагою оцінювати дії штучного інтелекту, залишаючись повністю відповідальним за розробку, розгортання і використання систем штучного інтелекту;

НЕУПЕРЕДЖЕНІСТЬ. Відповідальні особи повинні робити кроки для мінімізації небажаних відхилень в можливостях систем штучного інтелекту;

ВІДСТЕЖЕННЯ. Військові системи штучного інтелекту та їх можливості повинні розроблятися і розгортатися таким чином, щоб персонал мав належний рівень розуміння технології, процесів розробки і методів застосування. Для військового персоналу повинні бути доступні методології, дані і документація, що відносяться до використовуваних систем штучного інтелекту;

НАДІЙНІСТЬ. Можливості військових систем штучного інтелекту повинні бути однозначними і чітко сформульованими. Безпека і ефективність повинні перевірятися випробуваннями і підтверджуватися протягом усього терміну служби;

ПІДПОРЯДКУВАННЯ. Військові системи штучного інтелекту повинні повністю виконувати призначені для них завдання, але військові повинні мати можливість виявляти і запобігати небажаним наслідкам використання штучного інтелекту. Військові також повинні мати можливість виводити з бою або вимикати системи штучного інтелекту, у яких помічені відхилення в роботі.

comments powered by HyperComments