Les travailleurs des États-Unis utilisent secrètement l'IA pour accélérer les tâches, gérer les charges de travail et même équilibrer plusieurs travaux, et leurs boss n'ont aucune idée, selon un rapport de CNBC samedi.
Avec Chatgpt, Gemini et Bing AI prenant en charge les lieux de travail, les employés comptent sur ces outils pour faire le travail plus rapidement tandis que les entreprises se brouillent pour comprendre comment réguler l'utilisation de l'IA avant de devenir incontrôlable.
Les grandes entreprises technologiques jettent des milliards dans l'IA tout en licenciant des employés, forçant ceux qui sont toujours dans la paie à faire plus avec moins, car les principaux responsables de la sécurité de l'information (CISO) ont du mal à suivre, car les données de l'entreprisedentsont introduites dans des chatbots d'IA publics, exposant potentiellement des secrets commerciaux.
Les entreprises perdent le contrôle pendant que l'IA prend le dessus
Les employés se tournent vers les outils d'IA en secret parce qu'ils sont utiles. Michael Chui du McKinsey Global Institute aurait déclaré à CNBC que les travailleurs avaient toujours adopté la technologie avant les entreprises, en le comparant à la façon dont les employés ont commencé à utiliser des ordinateurs personnels et des téléphones portables avant que les entreprises ne les fournissent.
"Même lorsqu'il n'est pas sanctionné ou béni par cela, les gens trouvent des [chatbots] utiles", a déclaré . «Les gens achetaient des téléphones mobiles bien avant que les entreprises ne disent:« Je vous le fournirai. » Les PC étaient similaires, nous voyons donc l'équivalent maintenant avec une IA générative. »
Le problème? L'IA apprend de la contribution de l'utilisateur, et des modèles publics comme Chatgpt et Gemini Store et traitent les données qu'ils reçoivent. Cela signifie que les informations sensibles aux entreprises pourraient être assis dans la base de données d'une IA en ce moment, accessible à celui qui dirige le modèle.
"Si vous êtes une entreprise, vous ne voulez pas que vos employés invitent un chatbot accessible au public avec des informationsdent", a déclaré Chui. "Ainsi, vous pouvez mettre des moyens techniques en place, où vous pouvez concéder au logiciel et avoir un accord juridique exécutoire sur l'endroit où vos données vont ou ne vont pas."
Les CISO sont déjà submergés par des cyberattaques, des demandes d'automatisation et des menaces constantes de sécurité de l'IA. De nombreuses entreprises n'ont toujours pas de politiques d'IA, ce qui signifie que les employés partagent des informations internes avec des chatbots que les entreprises ne possèdent pas.
Les entreprises qui stockent des informations sur les plateformes basées sur le cloud appliquent déjà des politiques de sécurité, mais l'IA modifie le jeu. Les entreprises qui ne mettent pas en œuvre les mesures de sécurité de l'IA risquent désormais d'exposer des données critiques.
Certaines entreprises construisent une IA privée, mais la plupart ne peuvent pas se le permettre
Certaines entreprises tentent de reprendre le contrôle en créant des modèles d'IA privés ou des entreprises d'embauche pour développer des chatbots sécurisés spécifiques à l'entreprise. Sameer Penakalapati, PDG de Ceipal, a déclaré que la création d'une plate-forme d'IA personnalisée est l'une des meilleures façons d'empêcher les donnéesdentde fuir dans les outils d'IA publics.
Si une entreprise construit son propre assistant d'IA, elle peut garantir que seules les informations approuvées par l'entreprise sont accessibles tout en bloquant le partage de données non autorisé. Même l'embauche de sociétés d'IA externes pour créer des modèles GPT personnalisés est plus sûr que de permettre aux employés d'utiliser des outils d'IA sans restriction.
Microsoft travaille sur des modèles d'IA pour les entreprises, et des plates-formes comme les talents de Ceipal et BeaMery automatisent déjà les processus RH. Mais la construction d'une IA privée coûte cher et la plupart des entreprises n'ont pas les ressources pour le faire.
"Je dis toujours aux gens de s'assurer que vous avez une technologie qui fournit des informations basées sur des données impartiales et précises", a déclaré Penakalapati. «Parce que cette technologie n'est pas créée par Accident.»
Les systèmes d'IA fonctionnent sur la base des données qu'ils reçoivent, ce qui signifie que la mauvaise gestion des données pourrait créer de sérieux risques commerciaux. Si les entreprises ne contrôlent pas ce que leur IA apprend, elle pourrait répandre une désinformation, introduire des préjugés ou même prendre des décisions légalement risquées.
Les travailleurs américains jonglent avec plusieurs emplois et l'IA les aide à survivre
Les employés n'utilisent pas seulement l'IA pour stimuler l'efficacité - ils l'utilisent pour survivre. Le nombre d'Américains occupant plusieurs emplois n'a jamais été plus élevé et l'IA les aide à gérer les charges de travail.
Le marché du travail américain est brutal. Plus de travailleurs que jamais jonglent avec plusieurs emplois juste pour offrir des nécessités, avec des chiffres atteignant des sommets records:
- 8,86 millions d'Américains occupent désormais plusieurs emplois.
- 5,4% de tous les travailleurs gèrent plus d'un emploi, le plus élevé en 16 ans.
- Les employés ayant un emploi à temps plein et un deuxième emploi à temps partiel ont bondi de 395 000 en février, atteignant 5,37 millions, le plus élevé en 25 ans.
- Les travailleurs à temps partiel prenant des emplois supplémentaires pour des raisons économiques ont augmenté de 460 000 le mois dernier, atteignant 4,94 millions, le plus élevé depuis mai 2021.
Les salaires n'ayant pas réussi à suivre l'inflation, les travailleurs comptent sur l'IA pour équilibrer les charges de travail accrues, les bousculades latérales et les deuxième emplois. L'IA automatise les tâches répétitives, génère des rapports, rédige les e-mails et aide les employés à rester à flot dans une main-d'œuvre exigeant plus de production pour le même salaire.
Cryptopolitan Academy: à venir bientôt - une nouvelle façon de gagner un revenu passif avec DeFi en 2025. En savoir plus