?

Log in

No account? Create an account
b_n_e [userpic]

Ограничивающие риски требования к AI (у Азимова были надежнее и четке)

Февраль, 25, 2020 (22:52)

Теперь Пентагон будет руководствоваться пятью основными принципами. Искусственный интеллект должен быть "ответственным", "соразмерным", "понятным", "надежным" и "управляемым".

Принцип ответственности предполагает "должные уровни здравого смысла и осторожности" при разработке боевых машин.
Под соразмерностью в Пентагоне понимают "необходимые шаги для минимизации неумышленной предвзятости" боевых машин.
Под понятным искусственным интеллектом подразумевается то, что военные будут владеть необходимыми им технологиями и оперативными умениями, обеспечивать прозрачность процедур и документации.
Надежным искусственный интеллект должен стать, если ему придать "хорошо очерченные функции", а также постоянно испытывать в ходе разработки и эксплуатации.
Управляемостью военные США назвали принцип, когда у живых операторов в любом случае сохранится возможность отключить боевые машины, которые "продемонстрируют незапланированное поведение".
Принципы применения искусственного интеллекта разрабатывает экспертный центр Пентагона, который кроме военных и чиновников задействует мнения технических экспертов.

https://ria.ru/20200225/1565151511.html?utm_source=yxnews&utm_medium=desktop&utm_referrer=https%3A%2F%2Fyandex.ru%2Fnews

Comments

Posted by: b_n_e (b_n_e)
Posted at: Февраль, 25, 2020 19:54 (UTC)
Дичь какая-то

Уровень здравого смысла совершенно произволен

А непредвзятость это отрицание правила Байесса

Возможность отключить разумна

1 Читать комментарии