Ошибки нейросетей могут иметь фатальные последствия для человека

Исследование ПНИПУ показало, что ИИ часто выбир...

freepik.com

Почему ошибки нейросетей опасны для человека

Исследователи ПНИПУ показали, что нейросети выбирают наиболее правдоподобный ответ, а не вероятный. Такие ошибки могут стать критичными в медицине, транспорте и других сферах, где решения ИИ влияют на жизнь людей.

Проблема «черного ящика»

Глубокие нейросети остаются «черным ящиком» с сотнями миллионов параметров. Невозможно точно определить, почему модель приняла то или иное решение, а значит — невозможно гарантированно исправить ошибку.

Междисциплинарный подход

Учёные подчёркивают, что проблему когнитивных искажений ИИ решать должны не только инженеры, но и философы, психологи и социологи. Необходимо развивать прозрачность алгоритмов, внедрять аудит и обязательную проверку решений на контрпримерах.

Эксперимент с профессиями

В эксперименте с чат-ботами и людьми выяснилось, что ИИ выбирает логически обоснованные, но неверные варианты. Например, при выборе профессии для описанного мужчины модели предпочли библиотекаря, несмотря на более вероятный вариант — охранника.

Больше новостей и эксклюзивных видео смотрите в канале Самара Онлайн 24 в MAX.

Читайте также: