인공 지능(AI)을 둘러싼 윤리 및 안전 조치를 취하는 영국(UK)의 진전은 영국 안전 연구소(UK Safety Institute)가 만든 Inspect AI 관련 도구 세트의 도입으로 탄력을 받았습니다. AI 평가를 위한 완전한 알고리즘을 제공하여 투명하고 책임감 있는 AI 개발을 추구하는 데 중요한 이정표를 세웁니다.
영국 정부의 새로운 AI 안전 기관, 모델의 핵심 지식과 추론 능력 등 AI 모델 역량 평가 도구인 Inspect 출시( @kyle_l_wiggers / TechCrunch) https://t.co/IuYAtYHcIX
— Techmeme (@Techmeme) 2024년 5월 11일
📫 구독: https://t .co/OyWeKSRpIM https://t.co/MJQ20I1Jff
AI 안전 테스트에 대한 혁신적인 접근 방식
Inspect의 주요 특징은 복잡한 AI 알고리즘의 권한을 해결하는 능력에 있습니다. 기본 인프라 및 교육 데이터와 같은 중요한 측면이 공개되지 않음을 의미할 수 있는 불투명성으로 인해 이러한 모델은 큰 어려움을 안겨줍니다. 검사는 기존 기술과 테스트 방법을 쉽게 보완할 수 있는 매우 유연한 아키텍처를 통해 이 문제를 극복합니다.
여기에는 데이터 세트, 솔버 및 채점기의 세 가지 핵심 모듈이 포함됩니다. 모듈은matic 테스트 프로세스를 가능하게 하도록 구성되어 있습니다. 데이터 세트는 표본 모집단을 사용한 평가 테스트를 위한 리소스입니다. 그런 다음 득점자는 해결사의 실행 결과를 판단하고 점수는 집계된 지표로 집계됩니다. 이것의 핵심은 외부 Python 패키지를 통합하여 Inspect의 프레임워크를 향상시켜 Inspect의 효율성과 유용성을 높일 수 있다는 것입니다.
선구적인 협업과 글로벌 영향력
출시 는 AI 커뮤니티를 하나로 모으고 전 세계적으로 투명성과 협력을 촉진하는 상징입니다. AI Safety Institute UK는 오픈 소스 원칙에 의존하고 협업 문화를 육성하는 것 외에도 AI 보안 테스트에 대한 공유 접근 방식을 제공하고 지리적 및 조직적 구분을 극복하는 사명을 가지고 있습니다. 안전 연구소(Safety Institute) 회장인 Ian Hogarth는 집단적 접근 방식이 핵심이며, 검사는 부문 및 이해관계자를 포함한 모든 관련 당사자 사이에서 표준화된 최고 수준의 평가를 위한 기준점이 되어야 한다고 말합니다.
Mozilla의 AI 윤리학자이자 연구원인 Deborah Raj는 Inspect의 개발이 오픈 소스 AI 책임 도구에 대한 공공 투자의 혁신적인 효과를 보여주는 사례 중 하나라고 생각합니다. Inspect의 출시는 AI 스타트업 Hugging Face의 CEO인 Clément Delangue가 Inspect를 현재 모델 라이브러리의 일부로 포함하고 평가 결과가 표시되는 공개 리더보드를 만들 것을 요구함에 따라 학계와 산업계를 넘어 반향을 불러일으켰습니다. 표시됩니다.
AI 거버넌스의 대서양 횡단 패러다임 전환
Inspect의 발표는 국제적인 AI 거버넌스와 책임의 필요성에 대한 폭넓은 인식의 일환으로 이루어졌습니다. 미국과 영국은 블레츨리 파크(Bletchley Park)에서 열린 AI 안전 서밋(AI Safety Summit) 합의를 예로 들어 고급 AI 모델에 대한 테스트 프로토콜을 공동으로 개발하는 등 협력하고 있습니다. 우선 미국은 AI와 생성 AI 관련 위험을dent하고 해결한다는 전반적인 목표에 부합하는 AI 안전연구소를 설립할 계획이다.
차세대 AI 애플리케이션인 Inspect는 AI 여정의 주요 이정표를 의미하며, AI 여정을 모두 연결하는 중심 주제는 투명성, 책임성, 책임감 있는 거버넌스입니다. 국가와 조직 모두에서 인공지능의 책임을 염두에 두는 것에 대한 우려는 신뢰, 진실성, 인간 중심의 발전에 대한tron고려로 인해 AI가 인간에게 점점 더 수용될 밝은 미래를 예측하는 Inspect와 같은 이니셔티브에 영감을 줍니다. 가치.
Crypto News는주의를 기울여야합니다. Key Difference Wire는 250 개 이상의 최고 사이트에 있습니다.