Источник: Entertainment Capital, Автор: Фу Мэнчжэнь, Редактор: Джеймс
Несколько дней назад кто-то обнаружил, что SparkDesk, официальная платформа опыта Xunfei «Spark Cognitive Model», имеет загадочное положение в пользовательском соглашении:
Согласно запросу Entertainment Capital, в правилах взаимодействия с пользователем SparkDesk есть пункты с соответствующими последствиями. В связи с этим мы запросили пользовательское соглашение, правила тестирования и положения о конфиденциальности нескольких крупномасштабных модельных продуктов в Китае, которые прошли публичное тестирование, «Собирайте вашу личную информацию, найденную в общедоступных каналах и социальных сетях», а также многие другие необоснованные правила.
Итак, мы хотим рассказать вам в этой статье:
Какие методы использования больших моделей ИИ, которые вы считаете вполне разумными, на самом деле «нарушают пользовательское соглашение»?
Как будет обрабатываться ваша личная или конфиденциальная информация, введенная в большую модель?
Что это значит, когда вы рискуете нарушить условия использования больших моделей ИИ?
Если вы не будете осторожны, вы нарушите соглашение
В середине марта Baidu Wenxin начала тестирование продукта. 7 апреля "Tongyi Qianwen" Али запустила внутреннее тестирование. 17 апреля "Tiangong" Kunlun Wanwei запустила внутреннее тестирование. 24 апреля HKUST News Fei "Xinghuo Cognitive Model" начал внутреннее тестирование.
Все они предоставляют пользователям относительно очень короткое «тестовое правило» для замены длинного пользовательского соглашения в прошлом, такого как «Правила тестирования Вэнь Синь И Янь», и пользователи должны прочитать и согласиться с ним перед его использованием.
В общем, эти правила тестирования говорят только о трех вещах:
Пожалуйста, не публикуйте нелегальный контент;
Мы все еще незрелые и будем делать ошибки, пожалуйста, не используйте сгенерированные результаты напрямую для серьезных случаев;
Пожалуйста, дайте нам как можно больше отзывов.
Тем не менее, SparkDesk от Xunfei дополнительно оговаривает, что вы не можете сделать то, что он генерирует, включая его интерфейс, общедоступным в любой форме. То есть в тот момент, когда вы делаете снимок экрана с кем-то из группы WeChat, чтобы продемонстрировать свою квалификацию для внутреннего тестирования, вы уже нарушили их условия. Entertainment Capital Theory нашла соответствующий исходный текст в «Правилах взаимодействия с пользователем SparkDesk»:
*Учитывая, что служба SparkDesk в настоящее время находится на этапе тестирования, техническая информация SparkDesk о компьютерных программах, кодах, технических данных, системах и прикладном программном обеспечении, базах данных, алгоритмах, интерактивных интерфейсах (включая входной и выходной контент), дизайне продукта, выпуске продукта и информация о планировании и т. д. или деловая информация классифицируется как конфиденциальная информация. *
*Вы понимаете и соглашаетесь хранить вышеупомянутую конфиденциальную информацию строго конфиденциально! Без разрешения вы не можете разглашать, использовать или позволять другим использовать вышеупомянутую конфиденциальную информацию в любой форме (включая снимки экрана, печать, дискеты, компакт-диски, жесткие диски, электронные письма, сети, беспроводную связь и т. д.) или отправлять их веб-сайты, Weibo, группы WeChat или Моменты, собственные учетные записи мультимедиа и другие сетевые среды. *
*Если вы нарушаете обязательства по соблюдению конфиденциальности, предусмотренные настоящими правилами, мы имеем право привлечь вас к юридической ответственности в соответствии с законом. *
Очевидно, что «интерактивный интерфейс (включая содержимое ввода и вывода)» охватывает то, что мы вводим в его диалоговое окно при использовании SparkDesk, и результаты, которые он возвращает нам. И часто мы будем использовать скриншоты WeChat для отправки друзьям в группе, что является совершенно естественным ходом.
И введите имя SparkDesk, и вы обнаружите, что есть много официальных авторов аккаунтов.Во-первых, вы видели этот раздел, запрещающий скриншоты при регистрации.Нажав согласиться, вы сразу начнете делать скриншоты.Даже если на водяном знаке указан номер его мобильного телефона , вы не будете бояться. .
Нам очень любопытно, как были введены в действие такие правила, которые должны были быть предусмотрены как невозможные для реализации, когда они были сформулированы.
**Могу я рассказать большой модели свой маленький секрет? **
В дополнение к сбору информации из общедоступной сети, большая модель также сохраняет данные чата пользователей и их для обучения, поэтому личная информация пользователей или коммерческая тайна предприятий также подвержены риску раскрытия общественности. Ранее полупроводниковое подразделение Samsung Electronics имело три случая ввода коммерческой тайны в ChatGPT.
ChatGPT также слил личную информацию некоторых подписчиков ChatGPT Plus, что нарушает политику конфиденциальности GDPR ЕС.
Итак, какую информацию отечественные крупные модели будут указывать в соглашении, которое собирают пользователи?
Как ChatGPT и т. д., отечественные крупные модели ИИ будут собирать историю вопросов и ответов пользователей и моделей. Если вы нажмете «Нравится» или «Не нравится» рядом с ответом, эта дополнительная информация обратной связи также будет собрана.
Этот набор данных вопросов и ответов в основном используется для оптимизации продукта. Однако Baidu Wenxin оговорила, что эта информация также может использоваться Baidu в коммерческих целях.
«Правила защиты личной информации Wenxinyiyan (тестовая версия)» упоминают:
*После того, как мы обезличим личную информацию с помощью технических средств, обезличенная информация не сможет идентифицировать субъекта. Пожалуйста, поймите и согласитесь, что в этом случае мы имеем право использовать обезличенную информацию, при условии неразглашения вашей личной информации, мы имеем право анализировать базу тестировщиков и использовать ее в коммерческих целях. *
Когда мы отображаем вашу личную информацию, мы будем использовать методы, включая замену контента и анонимность, чтобы снизить чувствительность и отображать вашу информацию для защиты вашей информационной безопасности. *
Фактически, Baidu уже собрала «интересные изображения», созданные некоторыми пользователями с помощью Wenxin Yiyan, такие как «ломтики легких мужа и жены» и «белка-мандаринка», а также другие записи чата с нерелевантными текстами, и опубликовала их в видеоаккаунте Baidu и другие каналы рекламы.
Использование большой модели в качестве инструмента для консультирования — это одна из вещей, которую люди любят делать после ее получения. Пользователи используют большую модель как дупло, а все свои темные личные дела доверяют этому кибер-священнику.
Однако, если разработчик большой модели или средства массовой информации используют ваше консультирование как случай, в котором смешано слишком много вашей личной информации, чтобы ее можно было распознать, это может вызвать у вас новые проблемы.
Эта возможность также влияет на прямое использование общих версий этих больших моделей для психологического консультирования, однако коммерческая версия, использующая их в качестве API, может реализовать конфиденциальность пользовательских данных, поэтому я надеюсь, что все хорошо подумают, прежде чем позволить себе думать.
Несколько крупных национальных моделей, которые нас беспокоят, обычно упоминают, что они будут использовать «десенсибилизацию» для обработки личной информации каждого, например, «исходя из того, что она была деидентифицирована и не может повторно идентифицировать конкретного человека» и другие выражения. Но вообще говоря, чем меньше информации собирает платформа, тем лучше — это лучшая защита вашей конфиденциальности.
На самом деле ситуация обратная: поскольку пользователи стоят в очереди, чтобы получить места для опыта, эти крупномасштабные модельные продукты будут, как правило, предоставляться тем пользователям, которые предоставляют более подробную информацию о своей личности при рассмотрении пробных приложений.
Пользователи могут оставлять отзывы о том, удовлетворены ли они ответами, сгенерированными ИИ, с помощью лайков и антипатий. Разработчики также очень надеются, что некоторые примеры плохого поколения будут обнаружены и зарегистрированы на платформе первыми. Однако что «прискорбно» для разработчиков, так это то, что по многим странным проблемам пользователи послушно не дают внутренних отзывов, а напрямую отправляют их в социальные сети, такие как Xiaohongshu и Weibo.
На этот раз мы обнаружили, что некоторые модели упомянули в политике конфиденциальности, что при необходимости они также узнают, кто тот или иной снимок экрана из их профилей в социальных сетях:
*В соответствии с законодательством мы также будем получать информацию о вас из общедоступных или коммерческих источников, включая сторонние службы социальных сетей. *
Пользователи используют большую модель как дупло, а все свои темные личные дела доверяют этому кибер-священнику. Использование большой модели в качестве инструмента психологического консультирования — одна из вещей, которую люди любят делать после ее получения.
Однако, если разработчик большой модели или средства массовой информации представят пример вашего консультирования с моделью, который содержит слишком много личной информации о вас, чтобы ее можно было идентифицировать, это может вызвать у вас чувство потери. .
Возможно, поэтому некоторые приложения оболочки GPT (некоторые из них называются «AI Buddha» или что-то в этом роде), ориентированные на психологическое консультирование, были удалены с полок. Поэтому я надеюсь, что все подумают об этом, прежде чем отпустить, или если вы видите скриншот, не признавайтесь, что это то, о чем вы говорите, все в порядке.
Как говорится в терминах Tongyi Qianwen:
*Если вы отказываете нам в сборе и обработке вышеупомянутой информации, внимательно вводите текстовую информацию. После того, как вы примете участие в тестовом опыте, будет считаться, что вы приняли вышеуказанные условия. *
**Если я нарушу правила, какой будет штраф? **
Как мы все знаем, контент, генерируемый ИИ, уже много лет считается не подлежащим защите авторских прав в судебных решениях различных стран, то есть его может использовать и модифицировать любой желающий. Судебная практика различных стран в основном считает, что ИИ не является человеком, а значит, не является владельцем прав на интеллектуальную собственность.
Многие пользователи, естественно, думают, что контент, созданный на платформе большой модели, принадлежит им или может быть доступен и изменен по желанию. Однако не все проверенные нами условия различных отечественных масштабных моделей оговорены таким образом.
Мы уже видели «Положение о конфиденциальности» Xunfei Spark. И Kunlun Wanwei Tiangong (самопровозглашенная «сингулярность» в терминах) не позволяет пользователям использовать сгенерированный контент в коммерческих целях. Конечно, за этим могут стоять соображения, чтобы избежать неприятностей. В конце концов, авторское право на сам набор данных может также быть расплывчатым.
«Если иное не разрешено Singularity в письменной форме, вы можете использовать Услуги Tiangong только в некоммерческих целях. Вы обязуетесь не воспроизводить, копировать, продавать или перепродавать какую-либо часть Услуг Tiangong, а также использование или приобретение Услуг Tiangong или для рекламы. или других коммерческих целях."*
Alibaba Tongyi Qianwen назначает пользователю контент, принадлежащий пользователю. Baidu Wenxin Yiyan не установил четких правил в этом отношении, поэтому вы можете свободно их использовать.
Напротив, OpenAI воплощает своего рода теплоту по отношению к клиентам: он прямо передает клиентам все права, право собственности и интересы в отношении пользовательского контента.
В этот момент возникает вопрос — если я действительно использую сгенерированные результаты платформы, не разрешенной для коммерческого использования, меня арестуют?
На самом деле, внутренние бета-пользователи активно подают заявки на тестовую квалификацию отечественных масштабных моделей, конечно, не все ради забавы. Контент, который они производят, должен максимально использоваться в их собственной работе, чтобы действительно повысить эффективность. Для платформы кажется неразумным запрещать коммерциализацию сгенерированного контента, но, учитывая, что у разработчиков могут быть планы по коммерциализации API, мы в целом можем понять, почему существует такое регулирование.
Единственная проблема, как и в случае с Mita Technology: как «Китайская грамматика» может справиться с «ударом по уменьшению размерности» в эпоху GPT, как сказал Entertainment Capital Ван Ивэй, главный операционный директор Mita Technology, в настоящее время не имеет инструмента в market Может фактически определить, какие абзацы генерируются ИИ. «Если компания говорит, что я буду тренироваться специально для какой-то большой модели, возможно, удастся обнаружить следы производства этой модели, но если она сможет обнаружить все результаты, генерируемые этими большими моделями на рынке, то это невозможно. ."
Кроме того, для достижения максимальной отслеживаемости в этих крупных отечественных моделях используется метод добавления водяных знаков на интерфейс для сохранения личной информации пользователя. И мы обнаружили, что некоторые подключаемые модули браузера могут специально удалять водяной знак на интерфейсе этих больших моделей.
Эффект вполне идеальный.
Наконец, есть еще один вопрос: если вы чувствуете, что в этих условиях есть какие-то «оговорки о господстве» или по другим причинам, вы хотите удалить свою учетную запись, будет ли это сложно?
Для Xunfei Xinghuo и Kunlun Wanwei Tiangong учетные записи или пропуски этих двух не будут поставляться с некоторыми особенно важными продуктами или услугами, поэтому это удобно (некоторые люди могут быть платными пользователями Xunfei Dictation и т. д., или при использовании API Xunfei, этому моменту следует уделить особое внимание).
Однако, если вы хотите отключить Tongyi Qianwen, это означает удаление вашей учетной записи Alibaba Cloud; если вы хотите отключить Wenxinyiyan, это означает удаление вашей учетной записи Baidu. Эти двое доставляют гораздо больше хлопот.
Baidu предоставляет пользователям Wenxin Yiyan несколько способов доступа, обработки и запроса на удаление личных данных без удаления их учетных записей. Однако там же упоминалось, что очистка записей диалогов в интерфейсе диалогов не означает немедленное удаление кеша этих записей на сервере:
Когда вы удаляете информацию из нашего сервиса, мы можем не сразу удалить соответствующую информацию из системы резервного копирования, но удалим информацию при обновлении резервной копии.
В условиях Tongyi Qianwen указано, что «вы можете войти в центр учетных записей и подать заявку на аннулирование учетной записи, чтобы удалить всю вашу информацию». Alibaba Cloud. Это означает, что аннулирование вашей учетной записи означает аннулирование вашей учетной записи Alibaba Cloud.
Короче говоря, прежде чем эти услуги можно будет отделить от других предприятий, прикрепленных к учетной записи, и разрешить их отмену отдельно, рекомендуется использовать менее часто используемую учетную запись для подачи заявки на регистрацию этих крупных моделей, если вы действительно возражаете.
Давайте посмотрим на OpenAI, и мы обнаружим, что условия очистки пользовательских данных гораздо более дружелюбны, но мы также нашли некоторые очень американские термины, такие как так называемый «список сущностей».
Напишите в конце
Когда мы спрашиваем эти большие модели о каких-то «непреодолимых» положениях пользовательского соглашения, на самом деле мы спрашиваем, где проходит граница между правами и обязанностями платформы и пользователей?
Разработчики крупномасштабных моделей имеют относительно широкий спектр сбора пользовательских данных. Эти данные могут стать основой для больших моделей улучшения продуктов, но они также позволяют пользователям нести множество рисков. Соответственно, они очень консервативны в своей ограниченной ответственности и неоднократно напоминают пользователям, что в качестве экспериментальной функции большая модель не несет ответственности за любые проблемы или убытки, которые возникают после ее использования пользователями.
«100% защиты данных не бывает». Большие модели ИИ, как и другие интернет-продукты, имеют потенциальные риски в процессе передачи, хранения и обработки данных. Это даже не касается потенциально дырявого способа, которым ChatGPT учится на входном корпусе.
Хотя разработчики заявляют о «десенсибилизации» пользовательской информации, пользователям по-прежнему следует регулярно проверять свои настройки конфиденциальности на этих платформах и своевременно обращать внимание на любые уведомления, выдаваемые платформами в неопределенной форме, например в виде мелкого шрифта и всплывающих окон.
Пользовательское соглашение является распространенным способом заключения предприятиями договоров с пользователями. После подписания договора пользователь не может требовать расторжения договора на основании «не читал» или «не знал об этом». Чтобы максимально защитить свои законные права и личную информационную безопасность, всем пользователям необходимо внимательно прочитать пользовательское соглашение, политику конфиденциальности и т. д., а затем нажать привлекательную кнопку «Согласен и продолжить».
Юваль Харари однажды сказал в «Краткой истории человечества»: «Люди могут пожертвовать частью частной жизни ради удобства». Действительно, одной из тенденций развития больших моделей является повышение удобства жизни человека, в этом процессе пользователям представляется неизбежным «передача прав на неприкосновенность частной жизни».
Однако, внимательно читая соглашения и условия, которые часто игнорируются людьми, мы пытаемся привлечь достаточное внимание к некоторым местам, которые могут быть неразумными, и тем самым призываем к дальнейшему совершенствованию платформы.
Мы также надеемся, что защита прав и интересов пользователей отечественных крупномасштабных моделей может быть синхронизирована с ходом разработки моделей, и что они могут делать выбор при сборе информации о пользователях, исходя из долгосрочных интересов, и действовать предусмотрительно.
Посмотреть Оригинал
Содержание носит исключительно справочный характер и не является предложением или офертой. Консультации по инвестициям, налогообложению или юридическим вопросам не предоставляются. Более подробную информацию о рисках см. в разделе «Дисклеймер».
После прочтения пользовательских соглашений 4-х крупных отечественных моделей мне стало нехорошо
Источник: Entertainment Capital, Автор: Фу Мэнчжэнь, Редактор: Джеймс
Несколько дней назад кто-то обнаружил, что SparkDesk, официальная платформа опыта Xunfei «Spark Cognitive Model», имеет загадочное положение в пользовательском соглашении:
Итак, мы хотим рассказать вам в этой статье:
Какие методы использования больших моделей ИИ, которые вы считаете вполне разумными, на самом деле «нарушают пользовательское соглашение»?
Как будет обрабатываться ваша личная или конфиденциальная информация, введенная в большую модель?
Что это значит, когда вы рискуете нарушить условия использования больших моделей ИИ?
Если вы не будете осторожны, вы нарушите соглашение
В середине марта Baidu Wenxin начала тестирование продукта. 7 апреля "Tongyi Qianwen" Али запустила внутреннее тестирование. 17 апреля "Tiangong" Kunlun Wanwei запустила внутреннее тестирование. 24 апреля HKUST News Fei "Xinghuo Cognitive Model" начал внутреннее тестирование.
Все они предоставляют пользователям относительно очень короткое «тестовое правило» для замены длинного пользовательского соглашения в прошлом, такого как «Правила тестирования Вэнь Синь И Янь», и пользователи должны прочитать и согласиться с ним перед его использованием.
В общем, эти правила тестирования говорят только о трех вещах:
Пожалуйста, не публикуйте нелегальный контент;
Мы все еще незрелые и будем делать ошибки, пожалуйста, не используйте сгенерированные результаты напрямую для серьезных случаев;
Пожалуйста, дайте нам как можно больше отзывов.
Тем не менее, SparkDesk от Xunfei дополнительно оговаривает, что вы не можете сделать то, что он генерирует, включая его интерфейс, общедоступным в любой форме. То есть в тот момент, когда вы делаете снимок экрана с кем-то из группы WeChat, чтобы продемонстрировать свою квалификацию для внутреннего тестирования, вы уже нарушили их условия. Entertainment Capital Theory нашла соответствующий исходный текст в «Правилах взаимодействия с пользователем SparkDesk»:
*Учитывая, что служба SparkDesk в настоящее время находится на этапе тестирования, техническая информация SparkDesk о компьютерных программах, кодах, технических данных, системах и прикладном программном обеспечении, базах данных, алгоритмах, интерактивных интерфейсах (включая входной и выходной контент), дизайне продукта, выпуске продукта и информация о планировании и т. д. или деловая информация классифицируется как конфиденциальная информация. *
*Вы понимаете и соглашаетесь хранить вышеупомянутую конфиденциальную информацию строго конфиденциально! Без разрешения вы не можете разглашать, использовать или позволять другим использовать вышеупомянутую конфиденциальную информацию в любой форме (включая снимки экрана, печать, дискеты, компакт-диски, жесткие диски, электронные письма, сети, беспроводную связь и т. д.) или отправлять их веб-сайты, Weibo, группы WeChat или Моменты, собственные учетные записи мультимедиа и другие сетевые среды. *
*Если вы нарушаете обязательства по соблюдению конфиденциальности, предусмотренные настоящими правилами, мы имеем право привлечь вас к юридической ответственности в соответствии с законом. *
Очевидно, что «интерактивный интерфейс (включая содержимое ввода и вывода)» охватывает то, что мы вводим в его диалоговое окно при использовании SparkDesk, и результаты, которые он возвращает нам. И часто мы будем использовать скриншоты WeChat для отправки друзьям в группе, что является совершенно естественным ходом.
И введите имя SparkDesk, и вы обнаружите, что есть много официальных авторов аккаунтов.Во-первых, вы видели этот раздел, запрещающий скриншоты при регистрации.Нажав согласиться, вы сразу начнете делать скриншоты.Даже если на водяном знаке указан номер его мобильного телефона , вы не будете бояться. . Нам очень любопытно, как были введены в действие такие правила, которые должны были быть предусмотрены как невозможные для реализации, когда они были сформулированы.
**Могу я рассказать большой модели свой маленький секрет? **
В дополнение к сбору информации из общедоступной сети, большая модель также сохраняет данные чата пользователей и их для обучения, поэтому личная информация пользователей или коммерческая тайна предприятий также подвержены риску раскрытия общественности. Ранее полупроводниковое подразделение Samsung Electronics имело три случая ввода коммерческой тайны в ChatGPT.
ChatGPT также слил личную информацию некоторых подписчиков ChatGPT Plus, что нарушает политику конфиденциальности GDPR ЕС. Итак, какую информацию отечественные крупные модели будут указывать в соглашении, которое собирают пользователи?
Как ChatGPT и т. д., отечественные крупные модели ИИ будут собирать историю вопросов и ответов пользователей и моделей. Если вы нажмете «Нравится» или «Не нравится» рядом с ответом, эта дополнительная информация обратной связи также будет собрана.
Этот набор данных вопросов и ответов в основном используется для оптимизации продукта. Однако Baidu Wenxin оговорила, что эта информация также может использоваться Baidu в коммерческих целях. «Правила защиты личной информации Wenxinyiyan (тестовая версия)» упоминают:
*После того, как мы обезличим личную информацию с помощью технических средств, обезличенная информация не сможет идентифицировать субъекта. Пожалуйста, поймите и согласитесь, что в этом случае мы имеем право использовать обезличенную информацию, при условии неразглашения вашей личной информации, мы имеем право анализировать базу тестировщиков и использовать ее в коммерческих целях. *
Фактически, Baidu уже собрала «интересные изображения», созданные некоторыми пользователями с помощью Wenxin Yiyan, такие как «ломтики легких мужа и жены» и «белка-мандаринка», а также другие записи чата с нерелевантными текстами, и опубликовала их в видеоаккаунте Baidu и другие каналы рекламы.
Однако, если разработчик большой модели или средства массовой информации используют ваше консультирование как случай, в котором смешано слишком много вашей личной информации, чтобы ее можно было распознать, это может вызвать у вас новые проблемы.
Эта возможность также влияет на прямое использование общих версий этих больших моделей для психологического консультирования, однако коммерческая версия, использующая их в качестве API, может реализовать конфиденциальность пользовательских данных, поэтому я надеюсь, что все хорошо подумают, прежде чем позволить себе думать.
Несколько крупных национальных моделей, которые нас беспокоят, обычно упоминают, что они будут использовать «десенсибилизацию» для обработки личной информации каждого, например, «исходя из того, что она была деидентифицирована и не может повторно идентифицировать конкретного человека» и другие выражения. Но вообще говоря, чем меньше информации собирает платформа, тем лучше — это лучшая защита вашей конфиденциальности.
На самом деле ситуация обратная: поскольку пользователи стоят в очереди, чтобы получить места для опыта, эти крупномасштабные модельные продукты будут, как правило, предоставляться тем пользователям, которые предоставляют более подробную информацию о своей личности при рассмотрении пробных приложений.
Пользователи могут оставлять отзывы о том, удовлетворены ли они ответами, сгенерированными ИИ, с помощью лайков и антипатий. Разработчики также очень надеются, что некоторые примеры плохого поколения будут обнаружены и зарегистрированы на платформе первыми. Однако что «прискорбно» для разработчиков, так это то, что по многим странным проблемам пользователи послушно не дают внутренних отзывов, а напрямую отправляют их в социальные сети, такие как Xiaohongshu и Weibo.
На этот раз мы обнаружили, что некоторые модели упомянули в политике конфиденциальности, что при необходимости они также узнают, кто тот или иной снимок экрана из их профилей в социальных сетях:
*В соответствии с законодательством мы также будем получать информацию о вас из общедоступных или коммерческих источников, включая сторонние службы социальных сетей. *
Пользователи используют большую модель как дупло, а все свои темные личные дела доверяют этому кибер-священнику. Использование большой модели в качестве инструмента психологического консультирования — одна из вещей, которую люди любят делать после ее получения.
Однако, если разработчик большой модели или средства массовой информации представят пример вашего консультирования с моделью, который содержит слишком много личной информации о вас, чтобы ее можно было идентифицировать, это может вызвать у вас чувство потери. .
Возможно, поэтому некоторые приложения оболочки GPT (некоторые из них называются «AI Buddha» или что-то в этом роде), ориентированные на психологическое консультирование, были удалены с полок. Поэтому я надеюсь, что все подумают об этом, прежде чем отпустить, или если вы видите скриншот, не признавайтесь, что это то, о чем вы говорите, все в порядке.
Как говорится в терминах Tongyi Qianwen:
*Если вы отказываете нам в сборе и обработке вышеупомянутой информации, внимательно вводите текстовую информацию. После того, как вы примете участие в тестовом опыте, будет считаться, что вы приняли вышеуказанные условия. *
**Если я нарушу правила, какой будет штраф? **
Как мы все знаем, контент, генерируемый ИИ, уже много лет считается не подлежащим защите авторских прав в судебных решениях различных стран, то есть его может использовать и модифицировать любой желающий. Судебная практика различных стран в основном считает, что ИИ не является человеком, а значит, не является владельцем прав на интеллектуальную собственность.
Многие пользователи, естественно, думают, что контент, созданный на платформе большой модели, принадлежит им или может быть доступен и изменен по желанию. Однако не все проверенные нами условия различных отечественных масштабных моделей оговорены таким образом.
Мы уже видели «Положение о конфиденциальности» Xunfei Spark. И Kunlun Wanwei Tiangong (самопровозглашенная «сингулярность» в терминах) не позволяет пользователям использовать сгенерированный контент в коммерческих целях. Конечно, за этим могут стоять соображения, чтобы избежать неприятностей. В конце концов, авторское право на сам набор данных может также быть расплывчатым.
Alibaba Tongyi Qianwen назначает пользователю контент, принадлежащий пользователю. Baidu Wenxin Yiyan не установил четких правил в этом отношении, поэтому вы можете свободно их использовать.
Напротив, OpenAI воплощает своего рода теплоту по отношению к клиентам: он прямо передает клиентам все права, право собственности и интересы в отношении пользовательского контента.
На самом деле, внутренние бета-пользователи активно подают заявки на тестовую квалификацию отечественных масштабных моделей, конечно, не все ради забавы. Контент, который они производят, должен максимально использоваться в их собственной работе, чтобы действительно повысить эффективность. Для платформы кажется неразумным запрещать коммерциализацию сгенерированного контента, но, учитывая, что у разработчиков могут быть планы по коммерциализации API, мы в целом можем понять, почему существует такое регулирование.
Единственная проблема, как и в случае с Mita Technology: как «Китайская грамматика» может справиться с «ударом по уменьшению размерности» в эпоху GPT, как сказал Entertainment Capital Ван Ивэй, главный операционный директор Mita Technology, в настоящее время не имеет инструмента в market Может фактически определить, какие абзацы генерируются ИИ. «Если компания говорит, что я буду тренироваться специально для какой-то большой модели, возможно, удастся обнаружить следы производства этой модели, но если она сможет обнаружить все результаты, генерируемые этими большими моделями на рынке, то это невозможно. ."
Кроме того, для достижения максимальной отслеживаемости в этих крупных отечественных моделях используется метод добавления водяных знаков на интерфейс для сохранения личной информации пользователя. И мы обнаружили, что некоторые подключаемые модули браузера могут специально удалять водяной знак на интерфейсе этих больших моделей.
Наконец, есть еще один вопрос: если вы чувствуете, что в этих условиях есть какие-то «оговорки о господстве» или по другим причинам, вы хотите удалить свою учетную запись, будет ли это сложно?
Для Xunfei Xinghuo и Kunlun Wanwei Tiangong учетные записи или пропуски этих двух не будут поставляться с некоторыми особенно важными продуктами или услугами, поэтому это удобно (некоторые люди могут быть платными пользователями Xunfei Dictation и т. д., или при использовании API Xunfei, этому моменту следует уделить особое внимание).
Однако, если вы хотите отключить Tongyi Qianwen, это означает удаление вашей учетной записи Alibaba Cloud; если вы хотите отключить Wenxinyiyan, это означает удаление вашей учетной записи Baidu. Эти двое доставляют гораздо больше хлопот.
Baidu предоставляет пользователям Wenxin Yiyan несколько способов доступа, обработки и запроса на удаление личных данных без удаления их учетных записей. Однако там же упоминалось, что очистка записей диалогов в интерфейсе диалогов не означает немедленное удаление кеша этих записей на сервере:
Когда вы удаляете информацию из нашего сервиса, мы можем не сразу удалить соответствующую информацию из системы резервного копирования, но удалим информацию при обновлении резервной копии.
В условиях Tongyi Qianwen указано, что «вы можете войти в центр учетных записей и подать заявку на аннулирование учетной записи, чтобы удалить всю вашу информацию». Alibaba Cloud. Это означает, что аннулирование вашей учетной записи означает аннулирование вашей учетной записи Alibaba Cloud.
Короче говоря, прежде чем эти услуги можно будет отделить от других предприятий, прикрепленных к учетной записи, и разрешить их отмену отдельно, рекомендуется использовать менее часто используемую учетную запись для подачи заявки на регистрацию этих крупных моделей, если вы действительно возражаете.
Давайте посмотрим на OpenAI, и мы обнаружим, что условия очистки пользовательских данных гораздо более дружелюбны, но мы также нашли некоторые очень американские термины, такие как так называемый «список сущностей».
Напишите в конце
Когда мы спрашиваем эти большие модели о каких-то «непреодолимых» положениях пользовательского соглашения, на самом деле мы спрашиваем, где проходит граница между правами и обязанностями платформы и пользователей?
Разработчики крупномасштабных моделей имеют относительно широкий спектр сбора пользовательских данных. Эти данные могут стать основой для больших моделей улучшения продуктов, но они также позволяют пользователям нести множество рисков. Соответственно, они очень консервативны в своей ограниченной ответственности и неоднократно напоминают пользователям, что в качестве экспериментальной функции большая модель не несет ответственности за любые проблемы или убытки, которые возникают после ее использования пользователями.
«100% защиты данных не бывает». Большие модели ИИ, как и другие интернет-продукты, имеют потенциальные риски в процессе передачи, хранения и обработки данных. Это даже не касается потенциально дырявого способа, которым ChatGPT учится на входном корпусе.
Хотя разработчики заявляют о «десенсибилизации» пользовательской информации, пользователям по-прежнему следует регулярно проверять свои настройки конфиденциальности на этих платформах и своевременно обращать внимание на любые уведомления, выдаваемые платформами в неопределенной форме, например в виде мелкого шрифта и всплывающих окон.
Пользовательское соглашение является распространенным способом заключения предприятиями договоров с пользователями. После подписания договора пользователь не может требовать расторжения договора на основании «не читал» или «не знал об этом». Чтобы максимально защитить свои законные права и личную информационную безопасность, всем пользователям необходимо внимательно прочитать пользовательское соглашение, политику конфиденциальности и т. д., а затем нажать привлекательную кнопку «Согласен и продолжить».
Юваль Харари однажды сказал в «Краткой истории человечества»: «Люди могут пожертвовать частью частной жизни ради удобства». Действительно, одной из тенденций развития больших моделей является повышение удобства жизни человека, в этом процессе пользователям представляется неизбежным «передача прав на неприкосновенность частной жизни».
Однако, внимательно читая соглашения и условия, которые часто игнорируются людьми, мы пытаемся привлечь достаточное внимание к некоторым местам, которые могут быть неразумными, и тем самым призываем к дальнейшему совершенствованию платформы.
Мы также надеемся, что защита прав и интересов пользователей отечественных крупномасштабных моделей может быть синхронизирована с ходом разработки моделей, и что они могут делать выбор при сборе информации о пользователях, исходя из долгосрочных интересов, и действовать предусмотрительно.