Первоисточник: New Zhiyuan
Источник изображения: Generated by Unbounded AI
Недавно ChatGPT отреагировал на инцидент с фотографией странного мужчины, который шокировал многих пользователей сети!
Дело в том, что пользователь обратился к ChatGPT за помощью в том, как использовать пакет форматирования кода еще в Python.
Сначала ответы ChatGPT были нормальными.
Кто бы мог подумать, что ChatGPT вдруг отправил в ответ селфи странного мужчины!
И он тоже появился во второй раз!
Пользователи сети тут же впали в панику.
Может ли быть так, что ChatGPT реален?
Некоторые люди догадываются, что это не может быть еще один призрак в ИИ, верно?
Может быть, это страшная версия ChatGPT?
Кому-то вспоминается легенда о том, что в интернете спрятано огромное количество вещей в скрытом пространстве, что влечет за собой массу теорий.
Некоторые люди предполагают, что ChatGPT, возможно, был отравлен!
Или кто-то взломал OpenAI и попросил ChatGPT случайным образом опубликовать свои фотографии в качестве хвастовства.
Ответ неожиданный
Пользователи сети провели мозговой штурм и собрали улики повсюду и, наконец, раскрыли дело!
Это не фото, сгенерированное ChatGPT, а реальное селфи пользователя.
Оказалось, что эта фотография была загружена в Imgur 7 декабря 2016 года. (Первоначально изображение было просмотрено сотнями, но по мере того, как все больше и больше людей смотрели это событие, количество просмотров выросло до более чем 17 000.) )
Некоторые люди предполагают, что так и должно быть: ChatGPT случайным образом сгенерировал URL-адрес Imgur при генерации ответа, который оказался ссылкой на этого селфи-парня.
Цель ChatGPT — сгенерировать иллюстративное изображение, и он думает, что делится снимком экрана с настройкой Visual Studio Code, но не ожидает, что сгенерирует изображение через ссылку Imgur.
Другими словами, в обучающем наборе данных ChatGPT есть много ответов, которые содержат ссылки Imgur на частичные ответы, поэтому ссылки Imgur сильно коррелируют с правильными ответами.
Однако ChatGPT не может статистически автоматизировать случайную привязку изображений, поэтому результаты непредсказуемы. Фотография этого парня напоминает иллюзорный номер страницы GPT.
Другой пользователь сети также дал аналогичное объяснение: ChatGPT дал ответ, который является ссылкой на Imgur.
Он думал, что должен предоставить ссылку Imgur с ответом, но не понял, что ему нужен тот же URL-адрес Imgur, вместо этого он сгенерировал случайный набор URL-адресов.
И так совпало, что это на самом деле действительная ссылка, которая связана с фотографией иностранного парня.
Также было сказано, что для обучения использовался не Imgur, а что ChatGPT смог генерировать ссылки Imgur (любую ссылку, которую действительно можно сказать).
Итак, эта ссылка была случайно сгенерирована ChatGPT, насколько вероятно, что это произойдет?
Кто-то подсчитал, что идентификатор изображения Imgur состоит из 7 символов в наборе [A-Za-z0-9], поэтому получается 62^7=3 521 614 606 208, что составляет 3,5 триллиона возможных комбинаций.
Во время первого раунда финансирования в 2014 году Igmur разместил около 6,5 триллионов изображений. Экстраполируя это, можно сказать, что с 2014 года объем данных, создаваемых в Интернете, вырос на 860%. Следуя этой логике, Imgur теперь может разместить около 6,24 миллиарда изображений.
Таким образом, шансы на то, что ChatGPT угадает действительный идентификатор изображения, равны:
6,24 млрд / 62^7 х 100 = 0,177%
Это происходит примерно раз на каждые 565 чатов, поэтому нельзя сказать, что ChatGPT сгенерировал эту ссылку Imgur.
Мастер слоя намеренно написал простой скрипт для проверки этих чисел, и из 10 000 сделанных запросов он нашел 19 валидных изображений, поэтому вероятность равна 0,19%. Кстати, он тоже проявил пригоршню привязанности?
В этот момент кажется, что все разваливается.
Поэтому помните, что контент, который вы загружаете или набираете, будет использоваться для обучения ChatGPT, и если вы не хотите утечки своей конфиденциальности, не забудьте отключить кнопку загрузки истории чата.
И любой цифровой след, который вы оставляете в Интернете, однажды может стать данными для обучения ИИ.
Короче говоря, не отправляйте фотографии ИИ, вы не можете понять, что он собирается делать с вашей фотографией.
Ресурсы: