Каждая третья компания в Великобритании обеспокоена безопасностью своих данных при использовании больших языковых моделей (LLM), поскольку они эволюционировали из помощников, реагирующих на команды или вопросы, вdent системы, действующие без постоянного вмешательства человека.
В результате эти организации не решаются полностью интегрировать агентов искусственного интеллекта в свои операционные системы, опасаясь потерять контроль над своими данными и безопасностью в пользу машин, способных «думать самостоятельно».
Правительство Великобритании предпринимает шаги для решения этих проблем. Министр Кабинета министров Пэт Макфадден объявил о рассекречивании разведывательной оценки, указывающей на то, что искусственный интеллект усилит киберугрозы в ближайшие годы.
В 2024 году NCSC получила почти 2000 сообщений о кибератаках, из которых почти 90 были признаны «значительными», а 12 — «самыми серьезными». Это в три раза больше, чем в предыдущем году, по количеству серьезных атак.
Британские компании выражают обеспокоенность по поводу безопасности данных в рамках магистерских программ
В Великобритании предприятия обязаны соблюдать строгие правила, защищающие персональные данные и предотвращающие их неправомерное использование, такие как Закон Великобритании о защите данных и Общий регламент ЕС по защите данных (GDPR).
Компании, нарушающие эти законы, рискуют столкнуться с судебными исками и ущербом для своей репутации, поэтому они пересматривают свои стратегии в области обучения и повышения квалификации. Искусственный интеллект может раскрывать конфиденциальную информацию или генерировать вводящие в заблуждение результаты без тщательного контроля со стороны человека или точных подсказок.
Изначально инструменты искусственного интеллекта, такие как чат-боты, предоставляли фиксированные ответы, а умные термостаты просто изменяли температуру, следуя простым правилам, не задумываясь и не обучаясь на основе новых данных, предыдущих действий или результатов своих решений. Однако сегодня агенты ИИ используют LLM (Low-Low-Low-Maximum) для обучения на основе данных, изменения своих действий в зависимости от новой информации и решения различных задач, рассуждая подобно человеку.
Но это лишь малая часть гораздо более серьезной проблемы, поскольку люди также могут поручить агенту выполнить задачу, и он разобьет ее на более мелкие этапы, выполнит каждый из них по отдельности, а затем оценит результаты. Кроме того, некоторые агенты могут объединяться для выполнения сложной задачи, когда один из них работает над заданием, а другой проверяет результаты, чтобы улучшить итоговый результат.
Хотя этот рост помогает предприятиям автоматизировать операции и сокращает время, которое потребовалось бы для работы человеческих команд, он также представляет угрозу, поскольку чем больше решений эти агенты принимают самостоятельно, тем сложнее нам полностью понять, предсказать или контролировать их действия. Аналогично, последствия их ошибок могут расти в геометрической прогрессии, поскольку эти агенты ИИ действуют, не принимая во внимание мнение человека.
Компании внедряют агентов искусственного интеллекта в различных отделах с осторожностью
Многие компании в Великобритании используют агентов на основе искусственного интеллекта в своей повседневной работе, при этом такие отделы, как обслуживание клиентов, управление персоналом и маркетинг, постепенно тестируют эти инструменты и внимательно следят за их работой.
Хороший пример из деловой практики — компания Pets at Home, которая разработала ИИ-агента для своих ветеринарных врачей, чтобы тот мог быстро отвечать на вопросы и оказывать поддержку во время осмотров животных. Это демонстрирует, насколько полезными остаются ИИ-агенты для выполнения небольших задач в реальной работе.
В настоящее время большинству систем искусственного интеллекта, управляемых агентами, требуется помощь людей для руководства, проверки их работы и исправления ошибок, поскольку они не готовы полностью заменить людей без надзора. Однако в будущем компаниям, возможно, придется принимать сложные решения, которые позволят им интегрировать агентов ИИ в системы, сохраняя при этом контроль над ними.

