Двухпартийный законопроект под названием «Закон о противодействии мошенничеству с использованием искусственного интеллекта» был предложен двумя законодателями. Он направлен на борьбу с растущим злоупотреблением искусственным интеллектом в мошеннических схемах, особенно связанных с дипфейками, целью которых являются федеральные чиновники.
Это законодательство будет направлено на модернизацию существующих законов США о мошенничестве, чтобы они учитывали роль, которую технологии искусственного интеллекта сыграли в недавних громкихdent, когда созданные ИИ аудио- или видеоматериалы вводили в заблуждение должностных лиц или общественность.
Подробнее о двухпартийном законопроекте
Законопроект, предложенный конгрессменами Тедом Лью (демократ от Калифорнии) и Нилом Данном (республиканец от Флориды), двумя законодателями, которым надоела легкость и дерзость, с которой преступники теперь используют ИИ в своих мошеннических схемах, направлен на ужесточение наказания за мошенничество с использованием ИИ и криминализацию выдачи себя за федеральных чиновников с использованием ИИ.
«Технологии искусственного интеллекта стремительно развиваются, и наши законы должны идти в ногу со временем», — заявил Данн в заявлении, анонсирующем законопроект. «Закон о противодействии мошенничеству с использованием искусственного интеллекта ужесточает наказания за преступления, связанные с мошенничеством, совершённым с помощью искусственного интеллекта. Я горжусь тем, что являюсь одним из инициаторов разработки этого законопроекта, призванного защититьdentинформации граждан и предотвратить неправомерное использование этой инновационной технологии».
Лью согласен и на прошлой неделе заявил NBC News, что большинство американцев хотят «разумных ограничений для ИИ», поскольку они не считают, что «полный Дикий Запад будет полезен».
Согласно предлагаемому закону , максимальный размер наказания за мошенничество увеличится вдвое — с 1 до 2 миллионов долларов в случаях преднамеренного использования искусственного интеллекта для совершения преступления. Кроме того, обман с использованием искусственного интеллекта будет включен в определения defi почтового, так и электронного мошенничества, что позволит привлекать к ответственности лиц, использующих искусственный интеллект для совершения любого из видов мошенничества.
В любом случае преступникам грозит штраф в миллионы долларов и до двух десятилетий тюрьмы за мошенничество с использованием почты и до трех лет за мошенничество с использованием электронных средств связи.
В проекте также осуждается выдача себя за федеральных чиновников с помощью ИИ-глубоких фейков , и подчеркиваются случаи, когда ИИ использовался в попытках имитировать главу аппарата Белого дома Сьюзи Уайлз и госсекретаря Марко Рубио в начале этого года.
Мошенничество существует с тех пор, как появились люди, однако эксперты утверждают, что благодаря ИИ качество мошеннических результатов возросло.
В декабре ФБР предупредило, что «генеративный ИИ сокращает время и усилия, которые преступники тратят на обман своих жертв», добавив, что ИИ «может исправлять человеческие ошибки, которые в противном случае могли бы послужить предупреждающими знаками о мошенничестве».
Маура Р. Гроссман, профессор-исследователь компьютерных наук в Университете Ватерлоо в Онтарио и юрист, также считает, что ИИ открывает новую эру обмана: «ИИ открывает масштаб, размах и скорость мошенничества, которые сильно отличаются от мошенничества прошлого».
Модели ИИ стали более продвинутыми
Однако то, что это способствует совершению преступлений, — не самая большая проблема. Наблюдатели обеспокоены тем, что существующие институты, такие как суды, с трудом поспевают за стремительным развитием сектора ИИ.
«Годы ИИ — это годы собак», — сказал Хани Фарид, профессор компьютерных наук Калифорнийского университета в Беркли и соучредитель GetReal Security, ведущей компании по аутентификации цифровых медиа, о скорости прогресса ИИ.
Раньше было несложно отличить контент, созданный искусственным интеллектом, от реального контента, особенно если речь шла об изображениях. Однако сегодня они стали более продвинутыми, и даже самым опытным пользователям теперь сложно определить, является ли медиа-материал настоящим или сгенерированным.
В своем предупреждении от декабря ФБР рекомендовало гражданам обращать внимание на несоответствия в изображениях и видео, чтобыdentмедиафайлы, созданные искусственным интеллектом: «Ищите едва заметные недостатки на изображениях и видео, например, искаженные руки или ноги».
Однако Фарид считает этот старый совет ошибочным и даже вредным. «Фокус с несколькими руками больше не работает», — сказал Фарид. «Нельзя искать руки или ноги. Всё это не работает».
В законопроекте, предложенном Лью и Данном, подчеркивается важность маркировки контента, создаваемого ИИ. В нём также разъясняется, что для медиаконтента, создаваемого ИИ, существует своё время и место. Например, если контент помечен как сатирический, то метка указывает на его недостоверность и, следовательно, он не подлежит наказанию.

