Системы искусственного интеллекта могут ошибаться и не признавать этого

Чтобы создать систему искусственного интеллекта, которой люди смогут доверить ответственность за жизнь и смерть, машинам придется развить очень человеческую черту: признание своих ошибок.

Системы искусственного интеллекта могут ошибаться и не признавать этого

Тара Хэлл

5 апреля 2022 C Системы искусственного интеллекта создаются, чтобы помочь диагностировать болезни, но прежде чем мы сможем доверить им ответственность за жизнь и смерть, ИИ должен развить в себе очень человеческую черту: Признание ошибок.

И правда в том, что они пока не могут этого сделать.

Сегодня ИИ чаще может дать правильный ответ на проблему, чем понять, что допустил ошибку, утверждают исследователи из Кембриджского университета и Университета Осло.

Этот фундаментальный недостаток, по их мнению, коренится в математической проблеме.

Некоторые математические утверждения не могут быть доказаны как истинными, так и ложными. Например, та же математика, которую большинство из нас изучали в школе, чтобы найти ответы на простые и каверзные вопросы, не может затем использоваться для доказательства нашей последовательности в ее применении.

Возможно, мы дали правильный ответ, а возможно, и нет, но нам нужно было проверить свою работу. Это то, что компьютерные алгоритмы в большинстве своем не могут сделать до сих пор.

Это математический парадокс, впервые выявленный математиками Аланом Тьюрингом и Куртом Гёделем в начале 20-го века, что флаги некоторых математических проблем не могут быть доказаны.

Математик Стивен Смейл включил этот фундаментальный недостаток ИИ в список 18 нерешенных математических проблем мира.

Основываясь на математическом парадоксе, исследователи во главе с Мэтью Колбруком, доктором философии, с кафедры прикладной математики и теоретической физики Кембриджского университета, предложили новый способ классификации проблемных областей ИИ.

В журнале Proceedings of the National Academy of Sciences исследователи описывают ситуации, когда нейронные сети ИИ, созданные по образцу сети нейронов человеческого мозга, могут быть обучены для получения более надежных результатов.

Это важная начальная работа, необходимая для создания более умных и безопасных систем ИИ.

Hot