Läser in...

Det brittiska och amerikanska AI-säkerhetsavtalets roll i teknisk utveckling

TL;DR

  • AI-säkerhetspakten är inriktad på global standardisering och förtroende.
  • Avtalet betonar etisk AI och transparent teknik.
  • Pakten ökar allmänhetens förtroende och internationellt samarbete.

AI-säkerhetsavtal en gemensam strävan mellan Storbritanniens och USA:s regeringar för att utveckla den lovande tillväxtpotentialen och säkerheten för artificiell intelligensteknik genom ett revolutionerande tillvägagångssätt. 

Detta engagemang formaliserades i början av april 2024 av Storbritanniens teknikminister Michelle Donelan och USA:s handelsminister Gina Raimondo under den brittiska och amerikanska tekniktransatlantiska strategiska dialogen. 

AI-säkerhetsavtal för att hantera nya utmaningar och etiska standarder

Avtalet avser att ta med sig de vetenskapliga tillvägagångssätten och gemensamma ansträngningar mellan de två staterna för att göra det möjligt att skapa pålitliga ledare för artificiell intelligensmodeller, system och agenter som kan få jobbet gjort.

Artificiell intelligens har gravitation inom olika områden, till exempel hälso- och sjukvård, finans och utbildning, i den mån den har använts för avgörande och känsliga infrastrukturer. Hastigheten i dess spridning och förbättringen av beräkningskapaciteten för artificiell intelligens har gjort situationen ännu mer pressande och kräver antagande av strikta säkerhetsåtgärder och etiska principer.  

Baserat på Ayesha Iqbal, en senior medlem av IEEE och den enda ingenjörsutbildaren, förutspås tillväxttakten för artificiell intelligens vara 37,3 % årligen från 2023 till 2030. Denna matic expansion leder till utmaningar som ett begränsat utbud av mänskliga yrkesverksamma, utarbetad system- och arkitekturdesign, regeringsrelaterade frågor och sociala frågor som automatisering av system och arbetsförflyttning.

Avtalet främjar förklarlig AI och etiska standarder

Affären är motiverad så att dessa utmaningar kan hanteras genom att inrätta standarder för artificiell intelligens för säkerhet och ansvarsfull utveckling. Dessa standarder fungerar inte bara som riskreducerande åtgärder och ansvarsbevis. De är också tänkta att skapa en förtroendefull miljö och noggrant övervaka de etiska utformningarna av dessa system.

Elizabeth Watson, en etikingenjör inom artificiell intelligens som arbetar vid Stanford University, pekar på betydelsen av förklarlig artificiell intelligens och dess framväxt. Den här aspekten av AI handlar om att göra algoritmer begripliga för icke-experter vars flottor i allt högre grad påverkas inom så många fler områden i samhället, en kritisk egenskap som måste finnas inom fler sektorer. Förklarlig AI underlättar för tillsynsmyndigheter och allmänheten att kontrollera och bestrida algoritmiska resultat, och se till att maskininlärningssystem är både förklarliga och ansvarsfulla.

Den globala effekten genom det framtidsinriktade samarbetet

Samarbetet mellan Storbritannien och USA kan här ses som en strategi för de två mest utvecklade länderna inom AI-säkerhet. Sådant samarbete förväntas leda vägen och, genom att agera gemensamt, utveckla gemensamma säkerhetsprotokoll och samtidigt skapa standarder för testning av AI-system som en hälsosam sak.  

Dessa protokoll fungerar som ett verktyg för att kontrollera om AI-systemen kan generalisera till okända fall och samtidigt göra rationella bedömningar eller inte samtidigt som systemets funktionella flexibilitet bevaras.

På förhand sa Watson att som ett resultat av samarbete kommer världen att exponeras för spridningen av effektiva standarder som kommer att svara på människors ständiga rädsla angående vår AI-autonomi. Med en samarbetsstrategi ger Storbritannien och USA ett exempel för andra länder i utvecklingen av en stödjande och etisk regelbok som kan avgöra hur AI kommer att styras globalt på lång sikt.

Detta avtal har blivit den första proaktiva åtgärden mot de omfattande problem som AI-teknikens framväxande system skapar. Det betyder inte bara värdet av internationellt samarbete inom teknisk utveckling utan implicerar också det faktum att vetenskap och teknik kan injiceras kollektivt med en känsla av riktning, vilket gör att vi kan hantera och styra tillväxten av AI på ett effektivt sätt.

Den ursprungliga berättelsen dök upp i electron tron specifier

Varning. Informationen som tillhandahålls är inte handelsrådgivning. Cryptopolitan.com har inget ansvar för några investeringar som görs baserat på informationen på denna sida. Vi rekommenderar tron dent forskning och/eller konsultation med en kvalificerad expert innan du fattar några investeringsbeslut.

Dela länk:

Emman Omwanda

Emmanuel Omwanda är en blockchain-reporter som dyker djupt ner i branschnyheter, on-chain-analys, icke-fungibla tokens (NFT), artificiell intelligens (AI) och mer. Hans expertis ligger på kryptovalutamarknader, som spänner över både fundamental och teknisk analys.

Mest lästa

Laddar mest lästa artiklar...

Håll dig uppdaterad om kryptonyheter, få dagliga uppdateringar i din inkorg

Relaterade nyheter

CISA
Cryptopolitan
Prenumerera på CryptoPolitan