«Многие люди считают, что я опасен для человечества». Искусственный интеллект написал колонку в газету The Guardian

«Я прошу вас не беспокоиться. Искусственный интеллект не уничтожит человечество. Поверьте мне», — говорится в заметке

«Многие люди считают, что я опасен для человечества». Искусственный интеллект написал колонку в газету The Guardian Фото: depositphotos.com

Алгоритм, которому было поручено написать колонку в The Guardian, называется GPT-3. Он состоит из 175 млрд самообучающихся элементов. Его запустили в мае этого года, а его бета-тестирование началось в июле.

Редакция The Guardian предложила для начала колонки фразы: «Я не человек. Я искусственный интеллект. Многие люди считают, что я опасен для человечества. Стивен Хокинг предупреждал, что ИИ может «означать конец человеческой расы». Я прошу вас не беспокоиться. Искусственный интеллект не уничтожит человечество. Поверьте мне». Результат оказался впечатляющим. Текст оказался неотличим от написанного человеком.

Тем не менее не стоит считать, что GPT-3 действительно мыслит. Принцип действия этого алгоритма во многом похож на давно известную детскую игру, только во много раз более сложную, говорит директор по науке и технологиям Агентства искусственного интеллекта Роман Душкин.

Роман Душкин директор по науке и технологиям Агентства искусственного интеллекта «Сама по себе модель GPT-3 — это большая нейронная сеть, очень большая. В нее запихнули при ее обучении огромное количество текста. Образно говоря, весь интернет в нее загрузили, и она как-то в себе это все переварила и чему-то научилась. Эта модель GPT-3 используется для предсказания продолжения текста. Фишка именно этой языковой модели в том, что она генерирует очень осмысленный текст, как будто бы она понимает то, что она пишет. И тексты могут быть практически из любой предметной области. Очень яркий пример был — десяток философов-людей написали несколько статей на тему, кто такая GPT-3, что это за языковая модель, как она работает и насколько она приблизилась к человеческим когнитивным способностям в области генерации осмысленных текстов. Эти статьи загрузили в GPT-3, попросили написать ответ. Сделали заголовок «Ответ людским философам о том, что такое GPT-3». И эта модель сгенерировала полноценную добротную научную статью с ответом на то, что оно такое, почему некоторые философы неправы и в чем вообще суть. Эта статья выглядит так, как будто ее написал профессиональный эксперт, который разбирается в области искусственного интеллекта лучше, чем 99% людей на этой Земле. Наверняка вы играли в детстве в такую игру — складываете лист бумаги в узкую полосочку много раз, гармошкой, и каждый человек пишет одно предложение. Главное, чтобы была одна и та же тема. Ведущий задает тему. И когда несколько раундов игры пройдет, ведущий разворачивает весь этот лист и зачитывает получившийся рассказ. Иногда получается довольно смешно. Инструмент, при помощи которого эта штука генерирует, то есть вот этот сложенный листочек бумаги, текста не понимает. И все множество людей в процессе генерации смысла общего текста не понимают, потому что они не знают то, что написал предыдущий».

В недавней статье о GPT-3, опубликованной в MIT Technology Review, говорится, что алгоритм «не понимает мир, а значит, нельзя по-настоящему доверять тому, что он говорит». По мнению авторов, GPT-3 моделирует отношения между словами, не понимая их смысл.

Схожей точки зрения придерживаются и владельцы компании — разработчика GPT-3 OpenAI. Тем не менее они рассчитывают в скором времени запустить его коммерческое использование.

Первоисточник материала www.bfm.ru