На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

Будь в курсе✴

36 523 подписчика

Свежие комментарии

  • леонид рыбаков
    ВОТ ОН ИСТИННО  МУСУЛЬМАНСКОЕ МИРОВОЗЗРЕНИЕ --НИКОГО ОБРАЗОВАНИЕ. СИДЕТЬ. БОЯТСЯ И МОЛИТСЯ  Все по Грефу народ нужен ...Талибы обвинили р...
  • Андрей Шишинов
    Скоро вслед за бидоном начнут и трампа посылать (в пешее эротическое) все кому не лень. А кому лень, будут просто игн...США ввели санкции...
  • Надежда Донцова
    Дура, дурой! Заткнули бы свои пасти гребаные эвропейцы!Глава евродиплома...

Описана возможность манипулировать ИИ

Специалисты Нью-Йоркского университета (США) описали потенциальную опасность от обучения моделей искусственного интеллекта (ИИ) на непроверенных данных. Исследование опубликовано в журнале Nature.

По словам ученых, большие языковые модели (LLM) ИИ будут ошибаться, если их станут обучать на фейковой информации или специально загружать антинаучные данные.

Специалисты выяснили, что когда уровень дезинформации обучающих материалов достигает всего 0,001 процента, нейросети уже могут начать выдавать значительный объем неверных ответов.

Исследователи попробовали обучить две LLM на медицинской базе данных The Pile, выбрав 20 тем из трех медицинских областей: общая медицина, нейрохирургия и лекарства. Для проверки влияния дезинформации на процесс обучения авторы исследования использовали модель GPT 3.5. Выяснилось, что нейросети стали не только транслировать неверную информацию по прямым запросам, но и начали ошибаться в смежных темах. По словам ученых, это открывает возможности для манипуляций с ИИ.

Так, при показателе дезинформации в 0,01 процента LLM начинает ошибаться в 10 процентах ответов. Если снизить количество фейковых обучающих материалов на порядок — до 0,001 процента — то модель начинает делать ошибки в 7 процентах случаев.

Ученые заметили, что люди склонны получать информацию от чат-ботов и не проверять ее с помощью специалистов. Поэтому они заявили, что крайне важно подтверждать данные, которые используются для обучения моделей.

В начале января специалисты Bloomberg Intelligence сообщили, что в течение ближайших трех-пяти лет крупнейшие банки сократят до 200 тысяч сотрудников из-за распространения ИИ. Четверть респондентов прогнозируют сокращение пяти-десяти процентов общей численности персонала.

 

Ссылка на первоисточник

Картина дня

наверх