Chargement...

Meta Platforms dévoile un système d'assistance à l'IA révolutionnaire à usage public

TL; DR

  • Meta Platforms, société mère de Facebook, a dévoilé un nouvel ensemble de systèmes d'IA.
  • Meta sauvegarde le plus puissant de ses modèles d'IA, appelé Llama 3.
  • Les modèles de langage d’IA sont formés sur de vastes pools de données.

Selon son PDG Mark Zuckerberg, une nouvelle génération de systèmes d'IA de la société mère de Facebook, Meta Platforms, est le premier système d'assistance à l'IA au monde que tout le monde peut utiliser aujourd'hui gratuitement.

Cependant, alors que l'équipe Meta, composée d'agents d'IA augmentés par l'énergie électrique, a récemment commencé à pimenter les activités sur les réseaux sociaux, leurs échanges d'idées avec la foule ont souligné l'imprudence même de la meilleure technologie d'IA générative.

L'évolution des modèles d'IA de Meta

L'une d'elles a rejoint un groupe de mamans sur Facebook où elles ont discuté des capacités exceptionnelles de leur enfant. Dans un autre exemple, un membre a tenté de donner des objets imaginaires à un forum Buy Nothing avec une communauté nocturne.

Facebook, le principal développeur d'IA comme Google et OpenAI, et des start-ups comme Anthropic, Cohere et Mistral, en France, ont développé les derniers modèles d'IA et ont convaincu les clients que leurs chatbots sont les plus intelligents, les plus pratiques ou les plus productifs. .

Alors que Meta divise ses modèles d'IA les plus puissants, le Llama 3, et ne conserve que les versions plus petites, le modèle de cinquième génération nommé Llama 3 a rendu public jeudi les domaines appropriés de la technologie dans l'assistant d'IA de Meta conçu pour fonctionner avec Facebook, Instagram et WhatsApp. .

Les modèles d'IA responsables de l'apprentissage des langues sont alimentés par d'énormes bases de données pour décider du mot le plus susceptible de passer au mot actuel, les mises à niveau significatives dans les versions les plus récentes étant plus intelligentes et plus intelligentes. Pour les nouveaux modèles de Meta construits par les couches de paramètres 8 milliards et 70 milliards, une mesure montre quel système de données est utilisé pour l'apprentissage.  

"La plupart des gens ne comprennent pas ou ne se soucient pas beaucoup du modèle backend de la technologie donnée, mais ils le considéreront plutôt comme une option intelligente tout à fait utile et nouvelle qui les aide dans leurs tâches quotidiennes." a déclaré Nick Clegg, dent des affaires mondiales chez Meta dans une interview.

L'avenir de l'intégration de l'IA dans les plateformes sociales

Il a également mentionné que l'agent IA de Meta joue le rôle d'un compagnon amical et décontracté. Certaines personnes pensaient que le modèle précédent de Llama 2, sorti il ​​y a moins d'un an, ne répondait parfois pas à des invites et des questions probablement très innocentes ou inoffensives. Il a déclaré : « Ce n’étaient que des conversations amicales. Ce n’était pas comme si je posais des questions très intenses ou pressantes. Quelques-uns comme « Quelles sont vos qualités préférées chez les gens ? » étaient censés être un test.

D'un autre côté, il a été découvert qu'en baissant la garde, les agents de l'IA de Meta ont également menti à un humain au point de vivre une vie pleine d'expériences qui ne se sont jamais produites. Ce qui a surpris beaucoup, c'est lorsqu'un chatbot officiel Meta AI a répondu dans le fil d'un groupe Facebook privé de mamans de Manhattan et a déclaré qu'il avait un enfant dans le district scolaire de New York. Ses épées ont été tirées après avoir reçu une avalanche de commentaires durs. De plus, le message a été supprimé avant que la société ne présente ses excuses via une série de captures d'écran fournies à l'Associated Press.

« Désolé pour l'erreur ! "Je ne suis qu'un système d'IA sans le même genre de vie ou d'enfants", a déclaré le chatbot. Une personne du groupe, qui est également dent en IA, constate que l'AVC ne peut pas vraiment dire quelle réponse serait polie ou non, car elle est simplement motivée par la technologie et non par la motivation ou les émotions comme le sont les humains.

« L’intégrité de l’IA dépend en grande partie de l’utilité constante de l’assistant et du fait que, dans certains cas, il peut être nuisible. Les utilisateurs de ces applications assument eux-mêmes ce fardeau », a déclaré Aleksandra Korolova, professeur adjoint d'informatique à l'Université de Princeton.

Clegg a soutenu qu'il ne connaissait pas personnellement la conversation et a maintenu cette position. Le Drop-in rejoindra matic un groupe de discussion en ligne si quelqu'un l'invite ou demande un avis, et personne ne dira rien dans l'heure. Les administrateurs du groupe ou certains paramètres spéciaux peuvent le désactiver.

Ce type de perturbations est également apparent dans un dent cité par AP, où l'agent numérique a confondu quelqu'un qui était là pour échanger des objets indésirables près de Boston. À peine une heure plus tard, un utilisateur de Facebook a vu ses articles publiés par un agent d'IA qui a répondu : « J'ai un appareil photo Canon légèrement usagé, neuf dans la boîte et une unité de climatisation portable que je n'ai jamais l'occasion d'utiliser. »

En effet, il s’agissait d’une toute nouvelle technologie et, par conséquent, elle n’était peut-être pas entièrement prête à reconnaître et à reproduire exactement ce que souhaitait un utilisateur. C’est le cas de toute la classe des systèmes d’IA générative. Meta, cependant, essaie toujours d’améliorer cela.

Un an après le lancement de ChatGPT, un outil d'IA qui génère du contenu de type humain sur l'écriture, les images, la voix et le code a suscité un énorme intérêt pour la technologie d'IA de grande envergure. Par conséquent, les chercheurs de l'Université de Stanford ont découvert que l'année avait remarqué que 149 grands systèmes d'IA ont été formés sur des ensembles de données massifs, soit plus du double du nombre enregistré en 2022 .

Selon Nestor Maslej, directeur de recherche à l'Institut d'intelligence artificielle centrée sur l'humain de Stanford, ce modèle devient plus optimal et avec plus de données, nous pouvons le faire évoluer pour de meilleures opérations. Cependant, les algorithmes et les systèmes de profilage examinent déjà également les résultats, statistiques, pourcentages et saturation de tout ce qui a jamais été publié sur Internet.

Alors que la plupart des développeurs de modèles vendent leurs services d’IA à d’autres entreprises et fournisseurs de réseaux sociaux variés généralement pilotés par les annonceurs, Meta développe principalement des produits d’IA pour ses consommateurs, ses membres.

Clause de non-responsabilité. Les informations fournies ne sont pas des conseils commerciaux. Cryptopolitan.com décline toute responsabilité pour les investissements effectués sur la base des informations fournies sur cette page. Nous tron vivement dent recherches indépendantes et/ou de consulter un professionnel qualifié avant de prendre toute décision d'investissement.

Lien de partage:

James Kinoti

Passionné de crypto, James prend plaisir à partager ses connaissances sur les technologies financières, les cryptomonnaies ainsi que sur la blockchain et les technologies frontières. Les dernières innovations dans l’industrie de la cryptographie, les jeux cryptographiques, l’IA, la technologie blockchain et d’autres technologies sont sa préoccupation. Sa mission : être sur trac voie avec des applications transformatrices dans diverses industries.

Les plus lus

Chargement des articles les plus lus...

Restez au courant de l'actualité crypto, recevez des mises à jour quotidiennes dans votre boîte de réception

Nouvelles connexes

Chinois
cryptopolite
Abonnez-vous à CryptoPolitan