IT обозрение
Суббота, 24 января, 2026
No Result
View All Result
  • Новости
  • Игры
  • Смартфоны
  • Обзоры
  • Софт
  • Криптовалюта
  • ИИ
  • ru Русский
    • ar العربية
    • zh-CN 简体中文
    • cs Čeština‎
    • nl Nederlands
    • en English
    • et Eesti
    • fr Français
    • de Deutsch
    • iw עִבְרִית
    • it Italiano
    • lv Latviešu valoda
    • lt Lietuvių kalba
    • pl Polski
    • pt Português
    • ru Русский
    • es Español
    • uk Українська
  • Новости
  • Игры
  • Смартфоны
  • Обзоры
  • Софт
  • Криптовалюта
  • ИИ
  • ru Русский
    • ar العربية
    • zh-CN 简体中文
    • cs Čeština‎
    • nl Nederlands
    • en English
    • et Eesti
    • fr Français
    • de Deutsch
    • iw עִבְרִית
    • it Italiano
    • lv Latviešu valoda
    • lt Lietuvių kalba
    • pl Polski
    • pt Português
    • ru Русский
    • es Español
    • uk Українська
No Result
View All Result
IT обозрение
No Result
View All Result
Home Новости

Люди не доверяют ИИ. Как это исправить?

19.01.2018
A A
0
Share on FacebookShare on Twitter

Искусственный интеллект уже может предсказывать будущее. Полиция использует его для составления карты, отражающей, когда и где может произойти преступление. Врачи используют его для прогнозирования, когда у пациента может случиться инсульт или сердечный приступ. Ученые даже пытаются дать ИИ воображение, чтобы он мог предвидеть неожиданные события.
Многие решения в нашей жизни требуют хороших прогнозов, и агенты ИИ почти всегда лучше справляются с ними, чем люди. Тем не менее для всех этих технологических достижений нам по-прежнему не хватает уверенности в прогнозах, которые дает искусственный интеллект. Люди не привыкли полагаться на ИИ и предпочитают доверять экспертам в лице людей, даже если эти эксперты ошибаются.
Если мы хотим, чтобы искусственный интеллект нес пользу людям, нам нужно научиться доверять ему. Для этого нам нужно понять, почему люди так настойчиво отказываются доверять ИИ.

Доверьтесь доктору Роботу
Попытка IBM представить суперкомпьютерную программу врачам-онкологам (Watson for Oncology) стала провальной. ИИ обещал предоставить высококачественные рекомендации по лечению 12 видов рака, на долю которых приходится 80% случаев в мире. На сегодняшний день более 14 000 пациентов получили рекомендации на основании его расчетов.
Но когда врачи впервые столкнулись с Watson, они оказались в довольно сложной ситуации. С одной стороны, если Watson давал указания относительно лечения, совпадающие с их собственными мнениями, медики не видели большой ценности в рекомендациях ИИ. Суперкомпьютер просто рассказывал им то, что они уже знали, и эти рекомендации не меняли фактического лечения. Это, возможно, давало врачам спокойствие и уверенность в собственных решениях. Но IBM еще не доказала, что Watson действительно увеличивает процент выживаемости с раком.

ЭТО ИНТЕРЕСНО

Рецензия на сериал «Ограбление» / Steal

Рецензия на сериал «Ограбление» / Steal

24.01.2026
Рецензия на фильм «Вспышка» / Outbreak

Рецензия на фильм «Вспышка» / Outbreak

24.01.2026

С другой стороны, если Watson давал рекомендации, которые расходились с мнением экспертов, врачи заключали, что Watson некомпетентен. И машина не могла объяснить, почему ее лечение должно сработать, потому что ее алгоритмы машинного обучения были слишком сложными, чтобы их могли понять люди. Соответственно, это приводило к еще большему недоверию, и многие врачи просто игнорировали рекомендации ИИ, полагаясь на собственный опыт.
В результате главный медицинский партнер IBM Watson — MD Anderson Cancer Center — недавно сообщил об отказе от программы. Датская больница также сообщила, что отказывается от программы после того, как обнаружила, что врачи-онкологи не согласны с Watson в двух случаях из трех.
Проблема онкологического Watson была в том, что врачи ему просто не доверяли. Доверие людей часто зависит от нашего понимания того, как думают другие люди, и собственного опыта, укрепляющего уверенность в их мнении. Это создает психологическое чувство безопасности. ИИ же, с другой стороны, относительно новая и непонятная для людей штука. Он принимает решения, основываясь на сложной системе анализа для выявления потенциальных скрытых закономерностей и слабых сигналов, вытекающих из больших объемов данных.
Даже если его можно объяснить техническим языком, процесс принятия решений ИИ, как правило, слишком сложный, чтобы его могли понять большинство людей. Взаимодействие с чем-то, чего мы не понимаем, может вызвать тревогу и создать ощущение утраты контроля. Многие люди попросту не понимают, как и с чем работает ИИ, потому что это происходит где-то за ширмой, в фоновом режиме.
По этой же причине они острее подмечают случаи, когда ИИ ошибается: вспомните алгоритм Google, который классифицирует цветных людей как горилл; чатбот Microsoft, который стал нацистом менее чем за день; автомобиль Tesla, работающий в режиме автопилота, в результате которого произошел несчастный случай со смертельным исходом. Эти неудачные примеры получили непропорционально большое внимание средств массовой информации, подчеркивающих повестку того, что мы не можем полагаться на технологии. Машинное обучение не является на 100% надежным, отчасти потому что его проектируют люди.

Раскол общества?
Чувства, которые вызывает искусственный интеллект, уходят глубоко в природу человеческого существа. Недавно ученые провели эксперимент, в ходе которого опросили людей, смотревших фильмы про искусственный интеллект (фантастические), на тему автоматизации в повседневной жизни. Выяснилось, что независимо от того, был ИИ в фильме изображен в позитивном или негативном ключе, простой просмотр кинематографического представления нашего технологического будущего поляризует отношения участников. Оптимисты становятся еще более оптимистичными, а скептики закрываются еще сильнее.
Это говорит о том, что люди предвзято относятся к ИИ, отталкиваясь от собственных рассуждений, такова глубоко укоренившаяся тенденция предвзятого подтверждения: тенденция искать или интерпретировать информацию таким образом, чтобы подтвердить заранее имевшиеся концепции. Поскольку ИИ все чаще мелькает в медиа, это может способствовать глубокому разделению общества, расколу между теми, кто пользуется ИИ, и теми, кто его отвергает. Преобладающая группа людей может получить серьезное преимущество или гандикап.

Три выхода из кризиса доверия ИИ
К счастью, у нас есть мысли на тему того, как справиться с доверием к ИИ. Одно только наличие опыта работы с ИИ может значительно улучшить отношение людей к этой технологии. Есть также свидетельства, указывающие на то, что чем чаще вы используете определенные технологии (например, Интернет), тем больше вы им доверяете.
Другое решение может заключаться в том, чтобы открыть «черный ящик» алгоритмов машинного обучения и сделать их работу более прозрачной. Такие компании, как Google, Airbnb и Twitter, уже публикуют отчеты прозрачности о государственных запросах и раскрытии информации. Подобная практика в системах ИИ поможет людям получить нужное понимание того, как алгоритмы принимают решения.
Исследования показывают, что вовлечение людей в процесс принятия решений ИИ также повысит степень доверия и позволит ИИ учиться на человеческом опыте. Исследование показало, что люди, которым давали возможность слегка модифицировать алгоритм, чувствовали большую удовлетворенность от результатов его работы, по всей видимости, из-за чувства превосходства и возможности влиять на будущий исход.
Нам необязательно понимать сложную внутреннюю работу систем ИИ, но если предоставить людям хотя бы немного информации и контроля над тем, как эти системы реализуются, у них появится больше доверия и желания принять ИИ в повседневную жизнь.

Источник: hi-news.ru

Читайте так-же

Рецензия на сериал «Ограбление» / Steal
Новости

Рецензия на сериал «Ограбление» / Steal

24.01.2026
0

21 января на платформе Prime Video вышел 6-серийный криминальный триллер «Ограбление» с будущей Ларой Крофт Софи Тернер в главной роли....

Read more
Рецензия на фильм «Вспышка» / Outbreak

Рецензия на фильм «Вспышка» / Outbreak

24.01.2026
Итальянский отель с названием из Arc Raiders засыпали 5-звездочными отзывами

Итальянский отель с названием из Arc Raiders засыпали 5-звездочными отзывами

24.01.2026
Производитель унитазов заработал на буме искусственного интеллекта — как это удалось

Производитель унитазов заработал на буме искусственного интеллекта — как это удалось

24.01.2026
Будильники на iPhone самостоятельно переходят в режим «без звука»: как исправить?

Будильники на iPhone самостоятельно переходят в режим «без звука»: как исправить?

24.01.2026

ТОП НОВОСТИ

Dreame показала прототипы своих флагманских смартфонов

Dreame показала прототипы своих флагманских смартфонов

24.01.2026
Highguard потребует Secure Boot и TPM 2.0 – опубликованы системные требования

Highguard потребует Secure Boot и TPM 2.0 – опубликованы системные требования

24.01.2026
Рецензия на сериал «Ограбление» / Steal

Рецензия на сериал «Ограбление» / Steal

24.01.2026
Создатель VR-мода для Cyberpunk 2077 удалил все свои моды после второго DMCA-уведомления

Создатель VR-мода для Cyberpunk 2077 удалил все свои моды после второго DMCA-уведомления

24.01.2026
TENAA раскрыла дизайн Samsung Galaxy A57

TENAA раскрыла дизайн Samsung Galaxy A57

24.01.2026

ПОПУЛЯРНОЕ

  • Electronic Arts привезет на E3 2017 новые Star Wars: Battlefront и Need for Speed

    Electronic Arts привезет на E3 2017 новые Star Wars: Battlefront и Need for Speed

    0 shares
    Share 0 Tweet 0
  • Рецензия на фильм «Каховский объект»

    0 shares
    Share 0 Tweet 0
  • Эксперты раскритиковали инициативу с запретом современных протоколов шифрования — это может угрожать стабильности Рунета

    0 shares
    Share 0 Tweet 0
  • Обои Samsung Galaxy S24 уже доступны всем желающим [скачать]

    0 shares
    Share 0 Tweet 0
  • Анонсирована Oil Empire – кликер про создание нефтяной империи с элементами стратегии

    0 shares
    Share 0 Tweet 0
  • О нас
  • Реклама
  • Контакты
  • Политика конфиденциальности
  • Sitemap
Реклама: digestmediaholding@gmail.com

Использование любых материалов, опубликованных на портале itoboz.com, разрешается только при условии обязательного указания источника. Любое использование контента — будь то статьи, аналитические материалы, обзоры или новостные публикации — должно сопровождаться прямой гиперссылкой, открытой для индексации поисковыми системами.
Для интернет-СМИ, блогов и иных онлайн-платформ необходимо размещать такую ссылку либо в подзаголовке, либо в первом абзаце публикации. Скрытые ссылки или технические методы, препятствующие индексации, использовать запрещается.

Редакция портала itoboz.com публикует материалы различных авторов, однако не обязательно разделяет их мнение или позицию. Все точки зрения, представленные в статьях, обзорах и комментариях, принадлежат исключительно авторам публикаций. Редакция не несет ответственности за содержание републикуемых материалов, а также за любые последствия их использования третьими лицами.

© 2010-2026 IT новости. All Rights reserved

No Result
View All Result
  • Новости
  • Игры
  • Смартфоны
  • Обзоры
  • Софт
  • Криптовалюта

Использование любых материалов, опубликованных на портале itoboz.com, разрешается только при условии обязательного указания источника. Любое использование контента — будь то статьи, аналитические материалы, обзоры или новостные публикации — должно сопровождаться прямой гиперссылкой, открытой для индексации поисковыми системами.
Для интернет-СМИ, блогов и иных онлайн-платформ необходимо размещать такую ссылку либо в подзаголовке, либо в первом абзаце публикации. Скрытые ссылки или технические методы, препятствующие индексации, использовать запрещается.

Редакция портала itoboz.com публикует материалы различных авторов, однако не обязательно разделяет их мнение или позицию. Все точки зрения, представленные в статьях, обзорах и комментариях, принадлежат исключительно авторам публикаций. Редакция не несет ответственности за содержание републикуемых материалов, а также за любые последствия их использования третьими лицами.

© 2010-2026 IT новости. All Rights reserved

wpDiscuz