«Крестный отец» искусственного интеллекта предупредил об опасностях нейросетей

Речь идет не только о массовой потере рабочих мест людьми.

Ученый Джеффри Хинтон, которого часто называют «крестным отцом искусственного интеллекта» рассказал о негативных последствиях, связанных с этой технологией. По его словам, достижения в области машинного обучения представляют «глубокую опасность для общества и человечества».

Конкуренция между технологическими гигантами толкает компании к выпуску новых технологий ИИ с опасной скоростью. Из-за этого люди рискуют своими рабочими местами. «Посмотрите, что было пять лет назад, и что сейчас. Возьмите разницу и смоделируйте ее на будущее. Это страшно», — отметил Хинтон. Ученый сказал, что не представляет, как можно помешать недобросовестным людям использовать нейросети для плохих вещей.

По мнению Хинтона, системы искусственного интеллекта затмевают человеческий интеллект из-за объема данных, которые они анализируют. Хотя ИИ сейчас используется для поддержки работников, но быстрое распространение чат-ботов, таких, как ChatGPT, может поставить под угрозу рабочие места. «Искусственный интеллект избавляет людей от тяжелой работы, но может избавить их от работы в принципе», — считает ученый.

Ученый также предупредил о потенциальном распространении дезинформации, созданной ИИ. Он подчеркнул, что обычный человек больше не сможет понять, что правда, а что нет.

В марте владелец Space X Илон Маск, соучредитель Apple Стив Возняк и ряд экспертов призвали приостановить разработку систем ИИ, чтобы убедиться в их безопасности. Открытое письмо появилось после выхода GPT-4 — гораздо более мощной версии технологии, используемой в ChatGPT. Хинтон тогда не подписал письмо, но сказал, что ученым не следует «расширять масштабы этой технологии, пока они не поймут, могут ли они ее контролировать».

Джеффри Хинтон — британский и канадский ученый, внесший заметный вклад в глубинное обучение, изобрел быстрые алгоритмы машинного обучения. Работал профессором департамента информатики Торонтского университета. Был одним из исследователей, предложивших использовать метод обратного распространения ошибки для тренировки многослойной нейронной сети. Вместе с Терри Сейновски изобрел машину Больцмана — вид генеративной нейронной сети, которая определяет распределение вероятности на входных образцах данных.