«Крестный отец» искусственного интеллекта предупредил об опасностях нейросетей
Ученый Джеффри Хинтон, которого часто называют «крестным отцом искусственного интеллекта» рассказал о негативных последствиях, связанных с этой технологией. По его словам, достижения в области машинного обучения представляют «глубокую опасность для общества и человечества».
Конкуренция между технологическими гигантами толкает компании к выпуску новых технологий ИИ с опасной скоростью. Из-за этого люди рискуют своими рабочими местами. «Посмотрите, что было пять лет назад, и что сейчас. Возьмите разницу и смоделируйте ее на будущее. Это страшно», — отметил Хинтон. Ученый сказал, что не представляет, как можно помешать недобросовестным людям использовать нейросети для плохих вещей.
По мнению Хинтона, системы искусственного интеллекта затмевают человеческий интеллект из-за объема данных, которые они анализируют. Хотя ИИ сейчас используется для поддержки работников, но быстрое распространение чат-ботов, таких, как ChatGPT, может поставить под угрозу рабочие места. «Искусственный интеллект избавляет людей от тяжелой работы, но может избавить их от работы в принципе», — считает ученый.
Ученый также предупредил о потенциальном распространении дезинформации, созданной ИИ. Он подчеркнул, что обычный человек больше не сможет понять, что правда, а что нет.
В марте владелец Space X Илон Маск, соучредитель Apple Стив Возняк и ряд экспертов призвали приостановить разработку систем ИИ, чтобы убедиться в их безопасности. Открытое письмо появилось после выхода GPT-4 — гораздо более мощной версии технологии, используемой в ChatGPT. Хинтон тогда не подписал письмо, но сказал, что ученым не следует «расширять масштабы этой технологии, пока они не поймут, могут ли они ее контролировать».
Джеффри Хинтон — британский и канадский ученый, внесший заметный вклад в глубинное обучение, изобрел быстрые алгоритмы машинного обучения. Работал профессором департамента информатики Торонтского университета. Был одним из исследователей, предложивших использовать метод обратного распространения ошибки для тренировки многослойной нейронной сети. Вместе с Терри Сейновски изобрел машину Больцмана — вид генеративной нейронной сети, которая определяет распределение вероятности на входных образцах данных.