Главная » Все новости » ИИ под названием GPT-3 теперь может писать как человек, но не думать как человек
ИИ под названием GPT-3 теперь может писать как человек, но не думать как человек
ИИ под названием GPT-3 теперь может писать как человек, но не думать как человек

ИИ под названием GPT-3 теперь может писать как человек, но не думать как человек

GPT-3 может создавать отличный синтаксис. Он может похвастаться широким словарным запасом благодаря большой базе знаний, на основе которой он может генерировать тематически релевантные предложения.

С момента своего появления в начале этого года новое программное обеспечение для создания языков на основе искусственного интеллекта (ИИ) GPT-3 привлекло большое внимание своей способностью создавать отрывки текста, убедительно похожие на человеческие.

Некоторые даже предположили, что программа, созданная OpenAI Илона Маска, может рассматриваться или проявлять нечто вроде общего искусственного интеллекта (AGI), способность понимать или выполнять любую задачу, которую может выполнить человек. Это указывает на некое несоответствие в сознании людей между внешним видом языка и способностью думать.

Хоть и очевидно, что язык и мысль совсем не одно и то же, но тесно и тесно связаны. А некоторые люди склонны считать, что язык — это высший знак мысли.

Но язык можно легко создать без живой души. Все, что для этого требуется, — это обработка базы данных созданного человеком языка компьютерной программой, основанной на искусственном интеллекте.

Основываясь на относительно небольшом количестве образцов текста, доступных для изучения, GPT-3 способен создавать превосходный синтаксис. Он может похвастаться широким словарным запасом благодаря беспрецедентно большой базе знаний, на основе которой он может генерировать тематически релевантные, высокосогласованные новые утверждения. Тем не менее, он совершенно неспособен рассуждать или показывать какие-либо признаки «мышления».

Например, один отрывок, написанный GPT-3, предсказывает, что вы можете внезапно умереть, выпив клюквенный сок с чайной ложкой виноградного сока. И это несмотря на то, что система имеет доступ к информации в Интернете о том, что виноградный сок съедобен.

Другой отрывок предполагает, что чтобы провести стол через слишком маленький дверной проем, вам следует разрезать дверь пополам. Система, которая могла бы понимать, о чем она пишет, или иметь какое-либо представление о том, каков мир, не могла бы генерировать такие отклоняющиеся от нормы «решения» проблемы.

Если цель — создать систему, которая может общаться в чате, то GPT-3 показывает, что ИИ, безусловно, является лучшим образцом из всех, что были доступны до сих пор. И этому, конечно, можно порадоваться.

Но если цель состоит в том, чтобы заставить систему думать, то мы и близко не подошли к решению. Это потому, что искусственный интеллект, такой как GPT-3, работает путем «переваривания» колоссальных баз данных языкового контента для создания «нового» синтезированного языкового контента.

Реконструкция мышления, лежащего в основе наблюдаемого нами языкового содержания, является невыполнимой задачей, если вы не изучите само мышление. Как сказал философ Джон Сирл, мыслить могли только «машины с внутренними причинными силами, эквивалентными таковым у мозга».

И при всех наших достижениях в области когнитивной нейробиологии мы обманчиво мало знаем о человеческом мышлении. Итак, как мы могли надеяться запрограммировать его в машину?

Почему компьютерная программа, основанная на искусственном интеллекте и разработанная для переваривания сотен гигабайт текста на самые разные темы, должна знать что-либо о биологии или социальных рассуждениях? У него нет реального опыта мира. У него не может быть внутреннего человеческого представления.

Похоже, что многие из нас становятся жертвами причинно-следственной ошибки языка и разума. Якобы нет дыма без огня, нет языка без ума. Но GPT-3 — это языковая машина, полностью лишенная каких-либо реальных человеческих черт или психики. Это всего лишь алгоритм, и нет оснований ожидать, что он когда-либо сможет предоставить какие-либо аргументы. Потому что не может.

Заполнение пробелов

Частично проблема заключается в сильной иллюзии согласованности, которую мы получаем, читая отрывок, созданный GPT-3, благодаря нашим собственным способностям. Наш мозг был создан сотнями тысяч лет эволюции и десятками тысяч часов биологического развития для извлечения смысла из мира и построения последовательного описания любой ситуации.

Когда мы читаем вывод GPT-3, большую часть работы выполняет наш мозг. Мы находим смысл, которого на самом деле нет, просто потому, что язык выглядит и ощущается связным и тематически звучным, и поэтому мы соединяем точки. Мы так привыкли делать в повседневной жизни, что даже не осознаем, когда это происходит.

Мы связываем высказанные мысли друг с другом, и у нас может возникнуть соблазн подумать, что фраза сформулирована грамотно просто потому, что стиль может быть немного странным или удивительным. И если язык особенно ясный, прямой и хорошо сконструированный (для чего оптимизированы генераторы ИИ), мы испытываем сильное искушение сделать вывод о разумности там, где ее нет.

GPT-3 может создавать отличный синтаксис. Он может похвастаться широким словарным запасом благодаря большой базе знаний, на основе которой он может генерировать тематически релевантные предложения.

Понравилась запись? Поделись с другом!!!