No Image

ChatGPT

27 просмотров
04 декабря 2023

ChatGPT — программное обеспечение, позволяющее пользователю задавать ему вопросы, используя разговорный, или естественный, язык. Она была выпущена 30 ноября 2022 года американской компанией OpenAI и почти сразу же вызвала беспокойство ученых, журналистов и других людей, поскольку их волновало, что невозможно отличить написанное человеком от сгенерированного ChatGPT.

Языковые модели создают текст на основе вероятности появления слова, исходя из предыдущих слов в последовательности. Обученная на 45 терабайтах текстов из Интернета, языковая модель GPT-3, используемая в ChatGPT, вычислила, что некоторые последовательности слов встречаются с большей вероятностью, чем другие. Например, «кошка сидела на коврике» в английском языке встречается чаще, чем «sat the mat cat on», и, следовательно, с большей вероятностью появится в ответе ChatGPT.

ChatGPT называет себя «языковой моделью, разработанной OpenAI, ведущей исследовательской лабораторией искусственного интеллекта». Модель основана на «архитектуре GPT (Generative Pre-training Transformer), которая представляет собой тип нейронной сети, предназначенной для задач обработки естественного языка». ChatGPT утверждает, что ее основная цель — «генерировать человекоподобный текст, который может быть использован в различных приложениях, таких как чат-боты, автоматическое создание контента и перевод языка».

Далее говорится, что «модель может понимать и реагировать на ввод пользователя таким образом, что имитирует человеческий разговор, позволяя осуществлять более естественное и увлекательное взаимодействие. Кроме того, ChatGPT может генерировать текст в различных стилях и форматах, таких как новостные статьи, электронные письма и поэзия, что делает ее универсальной и полезной для широкого круга приложений». Например, когда ChatGPT попросили создать хайку об Encyclopædia Britannica, он создал хайку:

(Однако в этом хайку семь слогов вместо пяти в первой строке).

ChatGPT впечатлил многих своим знанием письменного английского языка и демонстрацией того, насколько далеко продвинулся искусственный интеллект (ИИ). В течение пяти дней после его появления более миллиона пользователей подписались на бесплатный аккаунт, чтобы общаться с ChatGPT. Программа показала, что может принимать экзамены на продвинутых курсах. Например, профессор Уортонской школы бизнеса Кристиан Тервиш обнаружил, что ChatGPT успешно сдала выпускной экзамен по его курсу операционного менеджмента, однако в некоторых вопросах она допустила «удивительные ошибки в относительно простых вычислениях на уровне математики 6-го класса». Преподаватели обеспокоились тем, что студенты могут списывать, поручая ChatGPT написание своих сочинений, а некоторые даже предложили больше не задавать сочинения в качестве домашнего задания. Американская медиакомпания Buzzfeed объявила, что будет использовать инструменты OpenAI, такие как ChatGPT, для создания контента, например, викторин, которые будут персонализированы для читателей.

В 1950 году британский математик Алан Тьюринг предложил тест для оценки того, можно ли назвать компьютер мыслящим. Человек, задающий вопросы, опрашивает и человека, и компьютер. С помощью серии таких тестов успех компьютера в «мышлении» можно определить по его вероятности быть ошибочно идентифицированным как человек. Исследователь данных Buzzfeed Макс Вульф заявил, что ChatGPT прошел тест Тьюринга в декабре 2022 года, но некоторые эксперты утверждают, что ChatGPT не прошел настоящий тест Тьюринга, потому что в обычном использовании ChatGPT часто заявляет, что является языковой моделью.

Хотя ChatGPT обладал многими сильными сторонами, у него были и удивительные слабости. Модель может складывать двузначные числа (например, 23 + 56) с полной точностью, но при умножении двузначных чисел (например, 23 × 56) она выдает правильный ответ только в 30 процентах случаев.

Как и другие большие языковые модели, ChatGPT иногда может «галлюцинировать» — термин, используемый для описания тенденции таких моделей отвечать неточной или вводящей в заблуждение информацией.

Например, ChatGPT попросили рассказать греческий миф о Геракле и муравьях. Такого греческого мифа не существует; тем не менее ChatGPT рассказал историю о том, как Геракл, оказавшись на необитаемом острове, научился делиться своими ресурсами с колонией говорящих муравьев. На вопрос, действительно ли существует такой греческий миф, ChatGPT извинился и ответил, что такого мифа не существует, но он создал басню, основанную на своем понимании греческой мифологии. Когда его спросили, почему он придумал такой миф, а не просто сказал, что его не было, он снова извинился и сказал, что «как языковая модель, моя основная функция — отвечать на подсказки, генерируя текст на основе шаблонов и ассоциаций в данных, на которых я обучался». ChatGPT, как правило, не говорит о том, что не знает ответа на вопрос, а выдает вероятный текст на основе выданных ему подсказок.

ChatGPT, по крайней мере, прямо говорит о своих ограничениях. На вопрос, является ли она надежным источником информации, она отвечает, что «не рекомендуется полагаться на ChatGPT как на единственный источник фактической информации. Вместо этого ее следует использовать как инструмент для создания текста или выполнения заданий на основе языка, а любую информацию, предоставляемую моделью, следует проверять с помощью достоверных источников». Даже ответы на вопросы о языках программирования — маловероятном источнике галлюцинаций — оказывались неточными настолько часто, что популярный сайт вопросов и ответов по программированию Stack Overflow временно запретил ответы из ChatGPT.

Комментировать
27 просмотров
Комментариев нет, будьте первым кто его оставит

Это интересно
No Image Технологии
0 комментариев
No Image Технологии
0 комментариев
No Image Технологии
0 комментариев
No Image Технологии
0 комментариев