IT обозрение
Пятница, 9 мая, 2025
No Result
View All Result
  • Новости
  • Игры
  • Смартфоны
  • Обзоры
  • Софт
  • Криптовалюта
  • ИИ
  • Новости
  • Игры
  • Смартфоны
  • Обзоры
  • Софт
  • Криптовалюта
  • ИИ
No Result
View All Result
IT обозрение
No Result
View All Result
Home ИИ

Право говорить и страх AGI. Сотрудники ИИ-компаний забили тревогу 

05.06.2024
A A
0
Share on FacebookShare on Twitter

AI fake news фейки

Бывшие и нынешние сотрудники ИИ-корпораций составили обращение с требованием расширить права на разглашение потенциально опасной корпоративной информации.

ЭТО ИНТЕРЕСНО

Amazon представила робота с чувством осязания

09.05.2025

Apple внедрит ИИ-поиск в iPhone

08.05.2025

«Компании, занимающиеся искусственным интеллектом, обладают закрытой информацией о возможностях и ограничениях своих систем, их защитных мерах и уровнях риска [технологий]. В настоящее время у них есть лишь несущественные обязательства по предоставлению части этой информации правительствам, но не общественности», — говорится в документе.

Среди подписавших письмо 13 бывших и действующих сотрудников OpenAI, Google DeepMind и Anthropic, некоторые пожелали остаться анонимными.

Авторы считают, что пока за ИИ-гигантами не установят эффективный государственный надзор, их работники являются «единственными, кто может привлечь их к ответственности».

Однако у таких компаний, есть «сильные финансовые стимулы, чтобы избежать надзора». По словам авторов документа, зачастую их ограничивают соглашения о конфиденциальности и другие корпоративные процедуры:

«Обычных мер защиты информаторов недостаточно, поскольку они завязаны на незаконной деятельности, тогда как многие из беспокоящих нас рисков еще не регулируются. Некоторые обоснованно опасаются различных форм возмездия, учитывая историю подобных случаев в отрасли».

В качестве смягчающей меры авторы предложили корпорациям придерживаться нескольких принципов:

  1. Не заключать соглашений, которые запрещают «унижение» или критику компании.
  2. Обеспечивать анонимность и непредвзятость по отношению к сотруднику, сообщившему о риске.
  3. Поддерживать «культуру открытой критики» и признать возможные опасения — от манипуляций с ИИ до потери контроля на ним, известной как «сингулярность».
  4. Не принимать ответных мер по отношению к работникам, опубликовавших связанную с опасениями конфиденциальную информацию.

Всемогущий AGI

Другой бывший работник OpenAI Леопольд Ашенбреннер опубликовал эссе, в котором выразил обеспокоенность, связанную с быстро развивающимся общим искусственным интеллектом (AGI).

https://forklog.com/exclusive/ai/za-prevyshenie-skorosti-chto-takoe-e-acc-i-kak-on-mog-povliyat-na-uvolnenie-sema-altmana

Работа составлена в рамках инициативы Situational Awareness («Ситуативная осведомленность») и посвящена ушедшему в отставку сооснователю OpenAI Илье Суцкеверу.

«Гонка AGI началась. Мы строим машины, которые могут думать и рассуждать. К 2025-2026 году эти машины обгонят многих выпускников колледжей. […] Попутно в нее вмешаются органы национальной безопасности. Правительство США проснется, и в 2027-2028 мы получим некую форму правительственного проекта AGI. Ни один стартап не сможет справиться со сверхинтеллектом. Где-то в SiFi наступит финал», — пишет Ашенбреннер.

По его наблюдениям, технологическое противостояние усиливается с каждым годом, поэтому до конца десятилетия «триллионы долларов уйдут на графические процессоры».

При этом ведущие национальные компании-разработчики рассматривают безопасность как второстепенную задачу. В настоящее время исследовательские учреждения «преподносят на блюдечке AGI для Коммунистической партии Китая».

«Суперинтеллект даст решающее экономическое и военное преимущество. КНР еще не вышла из игры. В гонке за созданием AGI на карту будет поставлено само выживание свободного мира. Сможем ли мы сохранить наше превосходство над авторитарными державами? И удастся ли нам избежать самоуничтожения на этом пути?», — задался вопросом бывший сотрудник OpenAI.

Он считает, что лишь немногие, кто связан с разработкой ИИ-технологии, могут повлиять на будущее человечества.

Ранее миллиардер Илон Маск назвал искусственный интеллект своим главным страхом. По его мнению, нейросети могут лишить людей необходимости работать.

Напомним, в мае 2024 года миллиардер и инвестор Уоррен Баффетт сравнил угрозу дипфейков с ядерным оружием.

Читайте так-же

ИИ

Amazon представила робота с чувством осязания

09.05.2025
0

Корпорация Amazon на мероприятии Delivering the Future в Германии представила робота Vulcan с чувством осязания. Meet Vulcan, our first robot...

Read more

Apple внедрит ИИ-поиск в iPhone

08.05.2025

Netflix внедрила ИИ-поиск на естественном языке

07.05.2025

Coinbase представила платежную технологию для ИИ-агентов

07.05.2025

Google обновила флагманскую ИИ-модель Gemini 2.5 Pro

07.05.2025

ТОП НОВОСТИ

Анонс Lenovo Yoga Pad Pro 14.5: первый планшет с процессором Lenovo

Анонс Lenovo Yoga Pad Pro 14.5: первый планшет с процессором Lenovo

09.05.2025

Съёмки второго сезона Fallout завершены

09.05.2025

Анонсирована дата выхода Horizon Journey – сурвавйвала на Марсе в стиле Subnautica

09.05.2025
Snapdragon 8 Elite 2 получит бешеный прирост AI: новые детали

Snapdragon 8 Elite 2 получит бешеный прирост AI: новые детали

09.05.2025

Мод для Oblivion Remastered решает проблему с уровнем лута – больше не нужно откладывать сдачу квестов

09.05.2025

ПОПУЛЯРНОЕ

  • Clair Obscur: Expedition 33 преодолела отметку в миллион проданных копий

    Clair Obscur: Expedition 33 преодолела отметку в миллион проданных копий

    0 shares
    Share 0 Tweet 0
  • Новые кадры со съемок «Ведьмака» — Геральт Лиама Хемсворта в канонической кожанке и «пухлый» Лютик

    0 shares
    Share 0 Tweet 0
  • Бесплатное дополнение для Sea of Stars выйдет через три недели

    0 shares
    Share 0 Tweet 0
  • В Rust появились джунгли с лианами, тиграми и крокодилами

    0 shares
    Share 0 Tweet 0
  • Трёхколёсный электрический скутер Microletta может проехать без подзарядки 100 км

    0 shares
    Share 0 Tweet 0
  • Реклама
  • Контакты
  • Политика конфиденциальности
Реклама: digestmediaholding@gmail.com

Использование любых материалов сайта разрешается при условии ссылки на itoboz.com
Интернет-СМИ должны использовать открытую для поисковых систем гиперссылку. Ссылка должна размещаться в подзаголовке или в первом абзаце материала. Редакция может не разделять точку зрения авторов статей и ответственности за содержание републицируемых материалов не несет.

© 2010-2025 IT новости. All Rights reserved

No Result
View All Result
  • Новости
  • Игры
  • Смартфоны
  • Обзоры
  • Софт
  • Криптовалюта

Использование любых материалов сайта разрешается при условии ссылки на itoboz.com
Интернет-СМИ должны использовать открытую для поисковых систем гиперссылку. Ссылка должна размещаться в подзаголовке или в первом абзаце материала. Редакция может не разделять точку зрения авторов статей и ответственности за содержание републицируемых материалов не несет.

© 2010-2025 IT новости. All Rights reserved

wpDiscuz