Получение краткого ответа на веб-поиск намного предпочтительнее, чем поисковая система, возвращающая длинный список результатов поиска. ChatGPT дает представление о том, как может выглядеть поисковая система будущего. Основываясь на активном использовании платформы за последние несколько месяцев, я должен сказать, что этот новый способ поиска ежедневно экономит мне массу времени. Только в нескольких случаях я вернусь к использованию поиска Google, и каждый раз, когда я это делаю, я хочу, чтобы мне не приходилось просматривать массу результатов поиска, чтобы найти то, что я ищу. Но у подхода ChatGPT к поиску в Интернете есть и недостатки.

ChatGPT не понимает мир

Большие языковые модели, такие как ChatGPT, реагируют на нас, людей, так, как будто они действительно понимают наши вопросы или просьбы так же, как и наш человеческий мозг. Они придумывают интуитивно звучащие ответы вместо длинного списка частично спонсируемых, частично измененных результатов поиска Google. Эти человеческие ответы могут создать у нас, людей, впечатление, что ChatGPT действительно понимает тему и контекст нашего вопроса и дает интуитивно понятный, хорошо информированный и сбалансированный ответ. Однако реальность совсем другая, и пользователи ChatGPT и любой другой большой языковой модели должны знать, как генерируются эти человеческие ответы. Вот ответ ChatGPT на этот вопрос.

Почему ваши ответы такие человеческие? Вы понимаете наш мир?

Как модель языка ИИ, я прошел обучение на большом наборе данных человеческого языка и научился генерировать человеческие ответы на основе этого обучения. Однако у меня нет истинного понимания мира, как у людей. У меня нет эмоций или переживаний, и я не обладаю сознанием или самосознанием. Я просто анализирую языковые шаблоны и генерирую ответы на основе этих шаблонов.

Источник: ЧатГПТ

Пользователям ChatGPT крайне важно помнить об этом, поскольку существует большая разница между сопоставлением с образцом и тем, как наш человеческий мозг обрабатывает информацию.

ChatGPT не понимает язык

Когда OpenAI говорит, что ChatGPT понимает смысл человеческого языка, определение «значения» для ChatGPT сильно отличается от того, что мы, люди. Вы можете думать об этом так: ChatGPT живет в мире, определяемом сотнями миллионов учебных документов из множества различных источников (веб-сайты, общедоступные базы данных, книги, журналы, архивные данные и т. д.). Обучение происходит без присмотра, когда ChatGPT учится исключительно путем анализа текстовых шаблонов, не получая никаких объяснений того, «как все работает». Посмотрите, как ChatGPT объясняет процесс обучения без присмотра:

Как вы можете понять значение английского языка без того, чтобы человек объяснил вам это?

В качестве языковой модели ИИ я прошел обучение на большом наборе текстов, включая книги, статьи и другие письменные материалы, что позволило мне изучить модели и структуры английского языка. Это обучение позволяет мне определять значения слов и фраз на основе того, как они использовались в контексте в наборе данных.

Когда мне представляют новое предложение, я анализирую его на основе шаблонов и структур, которые я извлек из обучающих данных, что позволяет мне делать прогнозы о значении слов и фраз в предложении. Эти прогнозы основаны на статистических моделях, построенных с использованием шаблонов и взаимосвязей между словами и фразами в обучающих данных.

Хотя у меня нет истинного понимания мира, я могу использовать эти знания, чтобы генерировать человеческие ответы на вопросы и разговоры.

Источник: ЧатГПТ

Другое определение «значения»

Важно понимать, что ChatGPT обрабатывает язык принципиально иначе, чем мы, люди. Хотя мы хорошо понимаем мир и можем использовать контекст, базовые знания и здравый смысл для интерпретации языка, ChatGPT полностью полагается на анализ статистических закономерностей в тексте, на котором он обучался. Большой язык модели не обладают реальными знаниями и не понимают концепций, о которых говорят. Все, что они делают, — это сопоставление с образцом на основе их внутренней нейронной сети, обученной путем обработки миллионов документов. Таким образом, ChatGPT может генерировать точные ответы только при наличии достаточного количества примеров данных для расчета этих ответов чисто математическим способом. Интуиция или «здравый смысл» недоступны для больших языковых моделей. Мы должны помнить, что это может привести к возмутительным ошибкам из-за отсутствия «проверки вменяемости» человеческого типа.

Значение как статистическая задача

ChatGPT рассматривает «смысл» как математическую задачу, в которой модель создает предложения на основе вероятности того, что слово встречается в похожем предложении и в похожем контексте. Однако ChatGPT обрабатывает слова как числовые последовательности, которые затем сравниваются с другими числовыми последовательностями в аналогичном контексте. Этот контекст, конечно же, тоже состоит из чисел. Теперь становится совершенно ясно, почему требуются миллионы документов, чтобы позволить ChatGPT фактически перевести весь мир в невообразимо большую карту чисел. Но что это значит для понимания ChatGPT нашего мира?

На диаграмме показано, как нейронная сеть улавливает суть текста, уменьшая его размерность. В то время как левая часть демонстрирует высокую сложность с множеством различных смысловых измерений, правая часть сводится только к трем измерениям (Источник: https://www.sciencedirect.com/topics/computer-science/multidiversity-space)

Наш мир в цифрах

Преобразование нашего мира в массивные последовательности чисел означает, что большие языковые модели не могут понять понятия, которые они не могут вычислить напрямую из обучающих данных. Это приводит к человеческим ответам, когда имеется достаточно обучающих данных, и к завершению «вычеркивания», когда их нет. ChatGPT никогда не испытывал, что значит ходить в парк, играть в футбол или пить воду. Вместо этого языковые модели получают эту информацию из вторых рук через текстовые данные из множества различных источников. Они переводят обучающие данные, описывающие этот опыт, в последовательности чисел. Затем они рассчитывают вероятность появления определенных терминов в ответе на конкретный вопрос пользователя. Есть два фундаментальных различия между этим подходом и нашим человеческим подходом:

ChatGPT не может обобщать знания

Возможность применять знания в принципиально разных контекстных сценариях отличает нас, людей, от больших языковых моделей, таких как ChatGPT. Это связано со способностью нашего мозга распознавать и обобщать основные понятия между различными областями. ChatGPT может передавать знания из одного домена в другой только при наличии достаточного количества примеров, которые пересекаются в своей терминологии, не содержащих доменно-специфическую лексику. Другими словами, ChatGPT должен иметь достаточно данных для расчета вероятностей. Большие языковые модели не могут «заполнить пробелы», применяя уроки из другой области.

Риск предвзятости

Если мы рассматриваем понимание текста как чисто математическую проблему распознавания образов, становится ясно, что для предотвращения предвзятости нам нужно в основном полагаться на людей, которые отбирают входные данные. Однако это невозможно для больших языковых моделей, таких как GPT. Таким образом, GPT обрабатывает больше примеров для популярных ответов, чем для менее популярных, но, возможно, столь же достоверных ответов. Таким образом, ChatGPT с гораздо большей вероятностью даст основные ответы. Это может закончиться опасной спиралью, когда люди используют ответы ChatGPT для создания дополнительных документов, которые в конечном итоге возвращаются в набор обучающих данных ChatGPT. В этом случае ChatGPT будет постоянно пить свой собственный Cool Aide, что приведет к все более узким результатам. Имейте в виду, что работа специалистов по обработке и анализу данных состоит в том, чтобы настроить модель обучения таким образом, чтобы предотвратить возникновение этих спиралей. Например, в ChatGPT явно встроены средства защиты, которые уравновешивают ответы, явно упоминая плюсы и минусы, даже если вы спрашивали только плюсы. ChatGPT также знает о противоречивых ответах на один и тот же вопрос и часто представляет пользователю обе стороны истории.

Вот довольно тонкий взгляд ChatGPT на предвзятость:

Предвзятость может быть проблемой для любой модели машинного обучения, включая ChatGPT. Как языковая модель, обученная на больших объемах текстовых данных, ChatGPT может отражать предвзятость, присутствующую в данных, на которых она обучалась.

Например, если обучающие данные содержат предвзятый язык или точки зрения, связанные с полом, расой или другими социальными факторами, модель может изучить и воспроизвести эти предубеждения при генерации языка или выборе ответа. Кроме того, если обучающие данные не отражают разнообразия человеческого опыта и взглядов, у модели могут возникнуть трудности с формированием ответов, которые являются инклюзивными и уважительными для всех пользователей.

Чтобы решить эти проблемы, были предприняты усилия по разработке методов обнаружения и смягчения предвзятости в языковых моделях, таких как ChatGPT. Один из подходов заключается в использовании разнообразных обучающих данных, которые отражают различные точки зрения и опыт. Другой подход заключается в разработке методов устранения предвзятости языковых моделей, таких как изменение обучающих данных или точная настройка модели для уменьшения или устранения предвзятых языковых шаблонов.

Однако важно отметить, что предвзятость — это сложная проблема, которую нельзя полностью исключить из моделей машинного обучения. Разработчики и исследователи должны осознавать возможность предвзятости в своих моделях и работать над тем, чтобы свести ее к минимуму, а также признавать, что предвзятость — это более широкая социальная проблема, которая требует постоянных усилий, выходящих за рамки машинного обучения.

Источник: ChatGPT, 8 марта 2023 г.

Последние мысли

Все вышеперечисленное никоим образом не отменяет огромных преимуществ больших языковых моделей. Как пользователи этих моделей, мы должны принимать любые ответы за то, чем они являются на самом деле: результат невообразимо сложного набора математических вычислений, которые сопоставляют данные «всего Интернета» с вопросом, который мы только что задали, а затем приходим к ответу. последовательность слов, которые с наибольшей вероятностью подходят к нашему вопросу.

Наконец, мы должны помнить, что результаты поиска Google также создаются непрозрачным образом, что вызвало множество судебных исков, обвиняющих компанию в повышении поискового рейтинга своих собственных продуктов или на основе рекламных расходов своих клиентов и партнеров. Просто спросите Yelp. Поэтому, какую бы поисковую платформу мы ни использовали, нам всегда нужно подвергать сомнению и перепроверять результаты, что действительно сложно сделать.