Поддержать команду Зеркала
Беларусы на войне
  1. Лукашенко помиловал 16 человек, осужденных за «различные преступления, в том числе экстремистской направленности»
  2. Продаете продукты со своего огорода? Власти подготовили для вас налоговые изменения
  3. Известны имена четырех политзаключенных женщин, которые вышли по помилованию к 9 мая
  4. «Шутки в сторону». МАРТ пригрозил торговле закрытием магазинов за завышение цен
  5. Лукашенко обвинил Латушко в намерении сжечь лидеров протеста в 2020 году. Тот ответил: «Тут диагноз ставить надо»
  6. Пауза США в поставках оружия Украине укрепляет представление Владимира Путина о «теории победы» — ISW
  7. Лукашенко много лет молчал об одном важном факте из своей биографии. Вот что нам удалось узнать
  8. «Я не собираюсь годами тут бороться. Вижу решение в месяцах». Большое интервью «Зеркала» с Сергеем Тихановским
  9. ВОЗ призвала резко повысить цены на три товара. Это поможет предотвратить 50 млн преждевременных смертей
  10. «Вясна»: Вышел на свободу бывший пресс-секретарь А1 Николай Бределев
  11. Власти пересмотрели новые правила сканирования товаров на кассах, на которые массово жалуются продавцы и покупатели
  12. «Эта цитата вырвана из контекста». Келлог опроверг слова Лукашенко
  13. «Люди должны сами решить, остаться ли в стране или уехать». В демсилах прокомментировали очередное освобождение политзаключенных


Naked Science

ИИ-сервисы вроде ChatGPT и Claude могут помочь эффективнее справляться с работой, но сотрудники, использующие подобные инструменты, рискуют столкнуться с негативными последствиями. Группа американских ученых в серии экспериментов показала, что люди склонны хуже оценивать тех, кто прибегает к помощи нейросетей, считая их более ленивыми и менее старательными, пишет Naked Science.

Человек работает с генеративной нейросетью ChatGPT. Фото: Reuters
Человек работает с генеративной нейросетью ChatGPT. Фото: Reuters

Хотя технологии искусственного интеллекта все шире внедряются в разные сферы нашей жизни, отношение к ним бывает неоднозначным. Страх навредить своей профессиональной репутации может стать причиной нежелания сотрудников пользоваться такого рода сервисами в рабочих процессах, выяснили специалисты в области бизнеса и управления из Дьюкского университета (США). Их статью опубликовал журнал Proceedings of the National Academy of Sciences.

Исследование проходило в онлайн-формате и состояло из четырех этапов. В общей сложности в них поучаствовали почти 4500 человек.

В первом эксперименте испытуемых просили представить, что они стали пользоваться генеративными нейросетями для работы либо выполняли задачу без помощи ИИ. Затем участники отвечали на вопросы.

Судя по результатам, респонденты предпочитали не афишировать факт использования ИИ-технологий. Также применявшим ИИ казалось, что в глазах коллег и начальства они выглядят менее компетентными и добросовестными, но более ленивыми и легко заменимыми, чем сотрудники, которые обходились без такого рода инструментов.

Второй этап подтвердил, что опасения небеспочвенны. Прочитав предложенные учеными характеристики сотрудников, респонденты более негативно судили о тех, кто прибегал к помощи ИИ, ниже оценивая их трудолюбие, профессионализм, амбициозность, независимость и уверенность в себе.

В третьем эксперименте исследователи смоделировали процесс найма работников. Представив себя в роли менеджеров по кадрам, люди реже выбирали кандидатов, которые сообщали о частом использовании ИИ. Однако выяснился нюанс: среди респондентов, которые по работе сами регулярно применяли такие технологии, тенденция оказалась обратной.

Заключительный, четвертый этап показал, что предвзятость можно смягчить, если подчеркнуть пользу ИИ для выполнения тех или иных задач.

Авторы исследования добавили, что предубеждение к использованию ИИ проявлялось вне зависимости от пола, возраста и рода занятий участников. Впрочем, ученые напомнили, что людям исторически свойственно отторгать новшества и относиться к ним с недоверием.