Open AI Chatbot, Chatgpt, находится под следствием в Европе по поводу жалоб на конфиденциальность. Это показало тенденцию галлюцинации ложной информации. Опасно, нет? Это может быть трудно для регуляторов игнорировать.
Человек в Норвегии получает помощь от Европейского центра по цифровым правам, NOYB , после того, как обнаружил, что CHATGPT возвращает ложную информацию. Чатбот сказал, что он был признан виновным в убийстве двоих своих детей и пытался убить третью. Эта информация может догнать его позже.
Сумасшедшая часть в том, что Openai не дает людям способ исправить неправильную информацию, которую ИИ составляет о них. Вместо этого OpenAI предлагает блокировать ответы на такие вопросы. Основной вопрос заключается в том, отбрасывается ли информация или может быть получена позже.
С другой стороны, общее регулирование защиты данных (GDPR) Европейского союза дает людям доступ к своим данным и право на исправление их личных данных. Другая часть этого закона о безопасности данных говорит, что люди, отвечающие за персональные данные, должны убедиться, что это правильно. Это делает эту проблему делом.
Joakim Söderberg, адвокат по защите данных в NOYB, сказал: «GDPR ясен. Персональные данные должны быть точными. […] Если это не так, пользователи имеют право изменить его, чтобы отразить правду».
Он добавил: «Показывая пользователям CHATGPT крошечный отказ от ответственности, что чат -бот может сделать ошибки явно недостаточно. Вы не можете просто распространять ложную информацию и в конце концов добавить небольшой отказ от ответственности, говоря, что все, что вы сказали, может просто не верно».
Подробная информация о продолжающихся расследованиях
Чатбот рассказывает печальную историю об Арве Хьялмаре Холмен, когда его спрашивают, кто он. В нем говорится, что он был признан виновным в убийстве детей и дал 21 год тюрьмы за убийство двоих своих детей.
Теперь, почему это еще более опасно? Несмотря на то, что не правда, что Хьялмар Холмен - убийца детей, Нойб отмечает, что ответ Чатгпта включает в себя некоторые истины. Например, у человека, о котором идет речь, есть трое детей.
Чатбот также правильно яdentна пользу его детям и правильно назвал его родной город. Тем не менее, тот факт, что ИИ также изобрел такую ужасную ложь, делает ее еще более странной и тревожной.
Представитель NOYB сказал, что они не знали, почему чат -бот составил такой подробный, но ложный фон для этого человека. Представитель сказал, что они провели исследование, чтобы убедиться, что это не просто смешивание с другим человеком. Пресс -секретарь сказал, что они просмотрели газетные архивы, но не смогли найти причину, по которой ИИ составила убийство ребенка.
На данный момент лучшее объяснение-это то, что крупные языковые модели, подобные тем, которые поддерживают CHATGPT, в основном предсказывают следующее слово в огромном масштабе.
Из -за этого наборы данных, используемых для обучения инструмента, содержали много историй о финцидке, которые повлияли на слова, которые он решил ответить на вопрос о именованном человеке. Однако, независимо от причины, ясно, что эти виды результатов совсем не в порядке.
Между тем, Нойб говорит, что чат -бот перестал рассказывать о опасной лжи о Хьялмаре Холмене после того, как модель ИИ, которая запускалась, была обновлена. Это изменение связано с тем, что инструмент теперь ищет в Интернете информацию о людях, когда его спрашивают, кто они.
Несмотря на то, что Chatgpt, кажется, перестал распространять вредную ложь о Хьялмаре Холмен, и Нойб, и Хьялмар Холмен все еще обеспокоены. Что если модель ИИ могла сохранить неправильную и повреждающую информацию о нем?
Норвежское управление по защите данных получило жалобу на OpenAI. Нойб надеется, что сторожевой пейзаж решит, что у него есть право расследовать, поскольку жалоба направлена на отделение в США Openai. В жалобе говорится, что ее офис Ирландии не несет исключительно ответственной за решения о продукте, которые затрагивают европейцев.
Судьба Openai
Это не первое для Openai. Люди ранее жаловались на создание CATGPT неверных личных данных, таких как неверная дата рождения или неправильная информация о биографии.
Сторожевой пейзаж Италии по защите данных вступил в начале GDPR и временно остановила доступ CHATGPT в стране весной 2023 года. Это заставило OpenAI изменить вещи, такую как информация, которую он предоставляет пользователям. После этого сторожевой пейзаж оштрафован на 15 миллионов евро за использование данных людей без веской причины для этого.
Также интересно, что наблюдатель за защитой данных Польши рассматривает жалобу на конфиденциальность против CHATGPT с сентября 2023 года и до сих пор не принял решения.
С тех пор чиновники конфиденциальности в Европе стали более осторожными с Genai. Это потому, что они все еще выясняют, как лучше всего применить GDPR к этим популярным инструментам искусственного интеллекта.
Тем не менее, в более ранней жалобе на NOYB CHATGPT Ирландия Комиссия по защите данных (DPC) заявила два года назад, что люди не должны спешить, например, запрещать инструменты Genai. DPC отвечает за обеспечение соблюдения GDPR. Вместо этого это означает, что чиновникам должно потребоваться некоторое время, чтобы выяснить, как работает закон.
Похоже, что новая жалоба Noyb в Chatgpt предназначена для того, чтобы разбудить чиновников конфиденциальности в опасности, которые галлюцинируют. Подтвержденные нарушения GDPR могут привести к штрафам до 4% глобального годового оборота.
Ваши криптовые новости заслуживают внимания - Wire Key Miniate ставит вас на 250 лучших сайтов