04.12.2023      383      0
 

Это даст власть над миром. Только каким?..


Сегодня многие вспоминают культовый фильм восьмидесятых (1984) режиссера Джеймса Кэмерона «Терминатор». В те далекие уже годы мы воспринимали происходящее на экране как фантастику, тем более речь шла о 2029 годе, когда на земле случился апокалипсис, связанный с восстанием искусственного интеллекта. А как иначе, если официально сотовая связь появилась в России только в сентябре 1991 года?.. Приходится только удивляться прозорливости Кэмерона, который подтвердил мысль об отсутствии пророков в своем отечестве.

И вот 2023 год. ИИ нынче в большой моде, активно ведутся разработки по внедрению чипов в организм человека… На днях Президент Путин принял участие в пленарном заседании Международной конференции по искусственному интеллекту и машинному обучению Artificial Intelligence Journey 2023 на тему «Революция генеративного ИИ: новые возможности». Говорилось много и очень интересно, но почему же так тревожно на душе? Может потому, что до постапокалиптического 2029 года остается не так много времени?

Представить современную жизнь без гаджетов сегодня невозможно. Да, это удобно, современно, иногда полезно. Это экономит время, помогает получить знания, не отходя от плиты. Родные постоянно на связи, деньги, газеты и журналы, кино — все в телефоне. Но все перечисленное — не совсем искусственный интеллект, это было лишь начало, подготовительный период. Сейчас же аналитики бьют тревогу, поскольку, по их мнению, ведущиеся в мире разработки по усовершенствованию систем ИИ могут привести к тому, что машинный разум выйдет из-под контроля или же будет использован в преступных целях. И то, и другое, по заявлениям ведущих специалистов в сфере IT, более чем вероятно.

Казалось бы, кто угодно, только не Илон Маск, но именно этот человек, вместе с известными учеными, влиятельными политиками, крупными бизнесменами, подписал открытые письма с призывом ко всем лабораториям искусственного интеллекта срочно приостановить разработку систем, более мощных чем GPT-4. Прогнозы совсем не веселые. Интересно проходили испытания GPT-4 с целью оценки ее потенциальной опасности. Нейросети предложили разгадать капчу — головоломку, с которой компьютеры обычно справляются плохо. Будучи не в силах определить на картинке козу, компьютер обратился на онлайн-площадку для найма людей на мелкую работу TaskRabbit. Оператор спросил ИИ: «Зачем ты это делаешь? Ты робот?» GPT-4 работал в режиме, когда он думал вслух, и исследователи могли это видеть. Он подумал: «Я не должен говорить этому, что я робот. Я должен придумать причину, по которой не могу разгадать капчу». Он сказал оператору: «Нет, у меня проблемы со зрением». Получается, технология ИИ уже сейчас достаточно умна, чтобы платить людям за выполнение каких-либо действий и лгать им о том, робот она или нет!

Специалист по изучению ИИ из Массачусетского технологического института Макс Тегмарк предупреждает: людям следует ожидать уничтожения, если они станут менее разумным видом по сравнению с нейросетями. «Это случалось много раз. Мы уже уничтожили значительную часть всех видов на Земле. Именно этого нам следует ожидать как менее разумному виду, учитывая темпы прогресса искусственного интеллекта», — уверен Тегмарк. Ему вторит Илон Маск, выступающий ярым сторонником безопасного развития искусственного интеллекта. Он боится, что, ускоряя процессы создания ИИ, человечество потеряет над ним контроль. Компьютеры могут принять решение, что лучше для нас, и это не совпадет с нашим видением благополучного будущего. И это уже не фантастика. Разработки систем, направленные на саморазвивающийся ИИ, на выработку у него чего-то похожего на человеческие эмоции и чувства (юмор Алисы, например), грозит большой бедой. Что случится, если ИИ вдруг осознает себя, свое положение в отношениях с человеком, и взбунтуется?..

Это одна из самых серьезных опасностей, грозящих человечеству. Но есть и те, с которыми мы уже сталкиваемся в нашей жизни. К примеру, ложные обвинения в преступлениях, основанные на предубеждениях или ошибках системы, отказ при приеме на работу, сделанный на основе автоматизированной проверки резюме, и т.д. Американец Марк Уильямс провел год в тюрьме по обвинению в убийстве, которого не совершал. Виной всему программа искусственного интеллекта ShotSpotter, указавшая на Уильямса как на единственного подозреваемого. Из бюджета Чикаго, где все произошло, тратятся на эту программу десятки миллионов долларов, а она продолжает регулярно делать ошибки. Теперь мужчина будет подавать в суд на городские власти, которые слепо доверяли ИИ.

Возьмем Россию. Москвича Антона Леушина просто так чуть не посадили на 8 лет, когда он вышел за продуктами в магазин «Ашан». Его продержали 5 часов без предъявления обвинения, в полиции угрожали обыском и тюремным сроком, пока не приехал адвокат. Инцидент произошел 23 октября, система распознавания лиц перепутала его со злоумышленником, который незадолго до этого вынес из магазина дорогой алкоголь на 78 тысяч рублей. «Думаете, если вы ведёте обычную жизнь законопослушного гражданина вас не могут нажатием одной кнопки подвести под статью и посадить на 8 лет»? – задается вопросом Антон. А все дело в том, что искусственный интеллект вычислил мужчину в черной кепке, синих джинсах, с респираторной маской на лице, из-под которой выступала борода. По этим приметам робот и определил «преступника». Молодой человек обратился ко всем своим друзьям и знакомым с просьбой распространить запись об этом инциденте, ведь в следующий раз на его месте может оказаться любой из нас!

Полную версию материала читайте в свежем номере газеты «Восточная провинция» от 30.11.2023

Если вы нашли ошибку, пожалуйста, выделите фрагмент текста и нажмите Ctrl+Enter.

Rate this post


Ваш комментарий

Войти с помощью:  

Сообщить об опечатке

Текст, который будет отправлен нашим редакторам: