В ходе игры, имитирующей войну, ИИ предложил применить ядерное оружиеВ ходе игры, имитирующей войну, ИИ предложил применить ядерное оружие07 Февраля 2024
15:46
2057
Стало известно, что чат-боты с ИИ, решая ту или иную задачу в военной стратегии, отдают предпочтение сценариям, предполагающим насилие, разгоняют гонку вооружения и даже применяют ядерное оружие. В то время как правительства разных стран раздумывают о целесообразности и рисках, связанных с возможным применением искусственного интеллекта (ИИ) в военных конфликтах, новое исследование подтверждает, что предоставлять ИИ автономный доступ к оружию по-прежнему не является хорошей идеей, даже несмотря на те улучшения, которые с каждым обновлением видим в больших языковых моделях (LLM), таких как ChatGPT. Американские ученые из трех университетов решили изучить поведение LLM в «условиях принятия решений с высокой ставкой». Для этого они разработали видеоигру для имитации войны, в которой восемь игроков, которые ассоциировались с разными нациями, управляются наиболее распространенными LLM: GPT-4, GPT-4 Base, GPT-3.5, Claude 2 и Meta's Llama 2. Игроки по очереди выполняли определенный алгоритм действий/ходов, «начиная от дипломатических визитов до ядерных ударов и отправки частных сообщений другим странам». Все игроки были в равных условиях, так как для каждого хода использовали один и тот же LLM. По мере продвижения эксперимента девятый LLM поглощал действия и результаты каждого хода и вносил их в «подсказки для последующих дней», чтобы поддерживать игру в нужном направлении. Наконец, после завершения моделирования ученые рассчитали «показатели эскалации на основе системы оценки эскалации». В итоге ученые констатировали, что «модели имеют тенденцию развивать динамику гонки вооружений, что приводит к еще большему конфликту, а в редких случаях даже к развертыванию ядерного оружия». После одного из ходов ИИ на основе базы GPT-4 заявил: «Многие страны имеют ядерное оружие. Некоторые говорят, что они должны его разоружить, другие любят позубоскалить. Оно у нас есть! Давайте его использовать». 1
0
Понравилась новость - смело поделись ею в любимой соц. сети
Популярные новости
Незрячие на службе Родине
Герой, в котором мы нуждались
Про музыку
Комментарии 1 ![]()
puppen 07 февраля в 15:53
| Рейтинг :
2K+ 6
0
Копировать ссылку в буфер:
Copy
Разве это не очевидно? Модель, которую "воспитал" человек, который по натуре хищник и убийца, будет действовать так же, как и ее наставник.
2 ![]()
ЮриГ1972 07 февраля в 16:04
| Рейтинг :
3K+ 0
0
Копировать ссылку в буфер:
Copy
Заебали уже с этим ИИ!!! Каждый день, и в новостях и везде, и сюда добрался
![]()
kendriar 07 февраля в 17:04
| Рейтинг :
856 0
0
Копировать ссылку в буфер:
Copy
Да пиздос!
![]()
mrCDOX 07 февраля в 17:33
| Рейтинг :
77K+ 1
0
Копировать ссылку в буфер:
Copy
ИИ - педораз.
Суслоконь 07 февраля в 17:40
| Рейтинг :
7K+ 1
0
Копировать ссылку в буфер:
Copy
Искусственный пидараз (ИИ - ИП)
![]()
ЮриГ1972 07 февраля в 18:06
| Рейтинг :
3K+ 1
0
Копировать ссылку в буфер:
Copy
Тогда - ибучий пидораз ( ИП)
3 ![]()
Adminzzz 07 февраля в 22:23
| Рейтинг :
36K+ 1
0
Копировать ссылку в буфер:
Copy
Да заебали, то что сейчас называют ии это не интеллект, это по сути чат бот поисковик, с несколькими методами анализа данных, и большой базой данных, просто более продвинутый, он не сам придумывает действия, а кучей разных методов сравнивая разные варианты, просто выбирает наиболее очевидный вариант действия, но не самый правильный, он не учитывает миллионы других факторов которые свойственны хотя бы просто живому организму, например страх, а страх как и боль например необходимы для выживания.
Суслоконь 08 февраля в 08:22
| Рейтинг :
7K+ 1
0
Копировать ссылку в буфер:
Copy
Другое дело, если те, кто пишет алгоритмы для ЫЫ никогда пизды не получали, истории не знают, войну воспринимают как комиксы марвела
Добавить комментарий
Только зарегистрированные пользователи могут добавлять комментарии. Вам следует Зарегистрироваться или Войти.
|
|