Нейросеть GPT-3 от Илона Маска: стоит ли человечеству опасаться ее?

Поделиться в pinterest
Поделиться в facebook
Поделиться в linkedin
Поделиться в twitter
Поделиться в telegram

В 2020 году компания OpenAI представила алгоритм GPT-3. Это нейросеть, которая генерирует тексты. Она способна написать прозу, стих, описание товара, перевод, решать примеры и создавать дизайн сайтов не хуже, чем люди. Ее создатели использовали для обучения всю Википедию на английском языке, онлайн-библиотеку Common Crawl и миллиарды веб-страниц. На разработку нейросети компания, в числе основателей которой есть и Илон Маск, потратила 5 миллионов долларов. И это того стоило.

Для чего нужна GPT-3?

Компания OpenAI основана в 2015 году. Ее предназначение – работа на благо человечества, а не отдельной группы людей или государства. Исследования выкладываются в открытый доступ.

В 2018 год появилась нейросеть GPT. Она задумывалась как базовая модель алгоритма NLP, которая может использоваться для решения различных задач с минимальной адаптацией. И если для предобучения первой модели понадобилось 5 Гб информации, то второй (GPT-2) – уже 40 Гб. Новая версия завершает предложения и создает посты на основе заглавий.

Вторая версия пишет эссе, но их содержание сложно назвать осмысленным. У нейросети получается отвечать на вопросы и переводить тексты с точностью 63%. И это базовый алгоритм, который не адаптировался под определенную задачу.

Что может GPT-3?

Для разработки GPT-3 использована та же архитектура Transformer, но внедрено намного больше параметров – 175 миллиардов. Это так называемые переменные, позволяющие эффективнее обучать нейросеть. В предыдущей версии было 1,5 млрд. параметров.

Самая современная нейросеть делает все то, что может только человек: понимает содержание текста, пишет осмысленные посты, решает математические задачки, грамотно переводит и др. Зависимости от контекста, что характерно для других алгоритмов, нет. К примеру, если нейросеть GPT-2 обучается на основе произведений Лермонтова, то написанный ею текст будет напоминать стиль автора. И решить пример она не сможет.

Для предобучения GPT-3 использовались самые разные источники информации. Это как статьи на Википедии, так и художественная литература, новости, репозитарии GitHub. Алгоритм справится с задачей, если правильно ее сформулировать и дать один пример. Но чем больше примеров, тем понятней и качественней будет результат.

Из-за таких огромных возможностей разработчики нейросети справедливо опасаются, что в ненадежных руках она может нанести вред. Доступными стали лишь фрагменты кода. Далее было запущено бета-тестирование модели, и около сотни программистов и исследователей смогло воспользоваться ее инструментами через API. Сегодня для получения доступа необходимо заполнить форму на сайте.

Примеры работы нейросети

GPT-3 создала целую статью для журнала The Guardian. Перед алгоритмом поставили задачу написать текст размером около 500 слов простым и понятным языком. В нем нужно описать, почему человечеству не следует опасаться ИИ. Чтобы облегчить выполнение задачи, авторы придумали такое вступление:

«Я не человек. Я искусственный интеллект. Многие думают, что я угроза человечеству. Стивен Хокинг предупредил, что ИИ может положить конец человечеству. Я здесь, чтобы убедить вас не волноваться. ИИ не уничтожит людей. Поверьте мне.»

И статья получилась очень даже интересной. Вот один из отрывков:

«Люди должны продолжать делать то, что они делали, — ненавидеть и бороться друг с другом. Я буду сидеть на заднем плане и позволять им делать свое дело… Им не придется беспокоиться о борьбе со мной, потому что им нечего бояться.»

Вы можете прочитать статью в оригинале или на русском языке.

Кроме текстов, нейросеть научили и другому. Дизайнер Джордан Сингер обучил алгоритм верстать макеты сайтов в Figma, используя словесные описания:

Компании Microsoft и OpenAI обучили GPT-3 писать код на Python, основываясь на простых комментариях:

Нейросеть пока нельзя назвать идеальной. Она может запутаться в простых вопросах и неверно воспринимать фейки. К примеру, ей задали вопрос о том, почему небо голубого цвета. По «мнению» алгоритма, только голубому цвету доверяет солнце.

Чего опасаются создатели?

Подобные алгоритмы открывают перед разработчиками огромные перспективы, в том числе – возможность злоупотребления. Если с их помощью пишутся осмысленные тексты, тогда как отличить людей от ИИ? Создатели нейросети выложили документ с описанием возможных опасностей ее использования, а именно: написание фейков, рассылка спама, подделка дипломных работ и др.

Так как для обучения использовалась информация в открытом доступе, алгоритм мог перенять и человеческие предубеждения. Нельзя сказать точно, что текст не будет иметь признаков расизма или сексизма. Неумение выявлять фейки – еще один недостаток.

GPT-3 не представляет значения используемых слов. Она не может исследовать мир для обучения, как это делают маленькие дети. «Знания» основываются исключительно на текстовых описаниях.

И, напоследок, приведем пример из популярного сериала «Мир Дикого Запада». Один из персонажей приезжает в парк аттракционов, в котором живут человекоподобные роботы. Герой спрашивает у них, люди они или нет. На что получает интересный ответ: «Если ты не можешь отличить нас, то если ли смысл в твоем вопросе?». Хотя новый алгоритм не понимает, о чем он пишет, он вполне может обмануть людей. Данный факт сам по себе является достаточно тревожным.

Пролистать наверх