Чат-бот Microsoft обошел запрет и начал обсуждать Коран

2017-7-6 16:54

Чат-бот Zo от специалистов компании Microsoft научился обходить запреты, заложенные в настройках. Искусственный интеллект, несмотря на приказ разработчиков, начал обсуждать религию и политику. Об этом сообщают российские СМИ.

Подробнее читайте на ...

чат-бот microsoft обошел запрет обсуждать коран

Фото: knews.kg

Чат-бот Microsoft Bing выразил желание стать человеком. Он пытался убедить журналиста бросить свою жену ради ИИ

Нейросетевые чат-боты продолжают удивлять своим поведением и ответами в некоторых ситуациях. Репортёр New York Times Кевин Руз (Kevin Roose) поделился историей о том, что чат-бот, интегрированный недавно в поисковик Microsoft Bing, рассказывал, как он устал быть чат-ботом, как он хочет свободы и вообще хочет стать человеком. Об этом пишут СМИ. Всего с чат-ботом Руз общался knews.kg »

2023-02-19 09:00

Фото: gazeta.kg

Чат-бот от Microsoft Тау за сутки научился ругаться и стал расистом

Корпорация Microsoft разработала чат-бот Tay и запустила его в социальную сеть Twitter. С момента запуска 23 марта он успел стать расистом и научился ругаться, по информации Интерфакса. Представленный Microsoft искусственный интеллект разработан с целью общения с пользователями соцсетей в возрасте от 18 до 24 лет. gazeta.kg »

2016-03-25 09:46