menulogo
Actualités 24
notifications
Notifications
notifications
Aucune notification non lue.
user
Close

jeudi, novembre 6

www.actualites24.fr
ai

Intelligence artificielle

Focus sur les avancées, applications et impacts de l’intelligence artificielle dans divers secteurs.
FollowSuivre
UnfollowÀ suivre
News Image
Le Tech Flash : Google Maps intègre l'IA Gemini, par Julien Thibaud - 06/11

Ce jeudi 6 novembre, dans Le Tech Flash, Julien Thibaud s'est penché sur Google Maps qui va intégrer l'IA Gemini, Google qui veut des datacenters dans l'espace, la bague intelligente Stream capable de prendre des notes vocales, Meta menacée de poursuite judiciaire par des procureurs américains, et l'alliance entre Snapchat et Perplexity AI. Cette chronique est à voir ou écouter du lundi au jeudi dans Tech&Co, la quotidienne, présentée par François Sorel sur BFM Business.

Source LogoBFMTV
Le directeur technique de Palantir affirme que le catastrophisme autour de l'IA est alimenté par « un manque de religion », une déclaration controversée, non étayée et jugée simpliste

Le directeur technique de Palantir affirme que le catastrophisme autour de l'IA est alimenté par « un manque de religion » une déclaration controversée, non étayée et jugée simplisteChez Palantir, les dirigeants sont très enthousiastes à propos de l'IA, multiplient les déclarations provocatrices à l'égard des discours alarmistes qui entourent la technologie et font campagne contre sa réglementation. Shyam Sankar, directeur technique de Palantir, se dit sceptique quant aux scénarios catastrophistes...

Source LogoDeveloppez
IT for BusinessIT for Business
Google Cloud libère son puissant TPU Ironwood qui redessine les frontières de l’inférence IA XXL
NumeramaNumerama
Accord Apple/Google : le nouveau Siri utiliserait un LLM avec 1 200 milliards de paramètres
FrandroidFrandroid
Largué sur l’IA, Apple s’apprête à signer avec Google pour le nouveau Siri
Économie MatinÉconomie Matin
Apple et Google : un accord à un milliard par an pour réinventer Siri ?
coverageCouverture complète
News Image
L’IA met fin à l’économie de la tromperie

De la finance à la médecine en passant par les voitures d’occasion, l’époque des consommateurs ignorants ou abusés est bel et bien révolue Si vous savez utiliser l’intelligence artificielle, elle peut vous faire gagner beaucoup de temps et d’argent. Vous louez une nouvelle voiture ? N’oubliez pas de télécharger d’abord une photo du contrat sur ChatGPT. […] L’article L’IA met fin à l’économie de la tromperie est apparu en premier sur Le nouvel Economiste.

Source LogoLe nouvel Economiste
News Image
Intelligence artificielle : « la Chine va gagner la course » face aux États-Unis, prédit le patron de Nvidia

Jensen Huang, PDG de l’entreprise Nvidia, a abordé le sujet de la course à l’intelligence artificielle lors d’un événement à Londres, cité par le Financial Times, mercredi 5 novembre. Et... L’article Intelligence artificielle : « la Chine va gagner la course » face aux États-Unis, prédit le patron de Nvidia est apparu en premier sur Valeurs actuelles.

Source LogoValeurs Actuelles
News Image
Ici on paye au doigt et à l'œil

Oubliez vos sacs à main et vos portefeuilles, et imaginez un monde où votre visage ou vos doigts suffisent pour payer vos achats. Ce n’est plus de la science-fiction, cela fait désormais partie du quotidien de millions de Chinois. La moitié de la population utilise le paiement par reconnaissance faciale. Une machine scanne des dizaines de points du visage. La transaction est effectuée en moins de dix secondes. Cette technologie n'est actuellement accessible qu'aux citoyens chinois.

Source LogoTF1 Info
News Image
« La Chine finira par l’emporter », le CEO de Nvidia Jensen admet la Chine va gagner la guerre de l’IA

Le CEO de Nvidia vient de dire tout haut ce que personne n'osait formuler clairement : la Chine finira par remporter la course à l'IA. Pas « peut-être », pas « si les conditions changent » — non, carrément « finira par ». Et ses arguments sont béton : pendant que les États-Unis s'empêtrent dans leurs restrictions à l'export et leurs pénuries d'électricité, Pékin construit 29 centrales nucléaires et subventionne à 50 % l'énergie de ses data centers IA.

Source LogoFrandroid
News Image
Défendre l'IA : les risques de sécurité derrière le shadow ML

L'intelligence artificielle (IA) est au cœur d'une course technologique mondiale, où entreprises et gouvernements repoussent sans cesse les limites du possible. Le lancement de DeepSeek a une nouvelle fois alimenté les débats sur la sophistication de l'IA et les coûts de son développement. Toutefois, à mesure que les modèles d'IA gagnent en complexité et en déploiement, les préoccupations sécuritaires ne cessent de croître. Les entreprises qui se précipitent pour suivre le rythme d'innovations comme DeepSeek risquent de prendre des raccourcis, créant des vulnérabilités que des acteurs malveillants peuvent exploiter.Le phénomène du « Shadow ML » : une menace invisibleL'une des principales inquiétudes concerne l'émergence du « Shadow ML », où des modèles de machine learning sont déployés sans supervision informatique, contournant les protocoles de sécurité, les cadres de conformité et les politiques de gouvernance des données. Cette prolifération d'outils d'IA non autorisés introduit une multitude de risques : plagiat, biais algorithmiques, attaques et empoisonnement des données. Si ces risques ne sont pas maîtrisés, ils peuvent compromettre l'intégrité et la fiabilité des décisions pilotées par l'IA dans des secteurs critiques tels que la finance, la santé ou la sécurité nationale.Le logiciel, l’infrastructure critique de notre époqueLe logiciel est désormais un composant central de nos infrastructures modernes, au même titre que les réseaux électriques ou les systèmes de transport. Les défaillances dans ces systèmes peuvent se propager à l'ensemble des secteurs d'activité, provoquant des perturbations massives. Avec l'intégration croissante de modèles d'IA/ML au cœur des opérations logicielles, l'impact potentiel des failles de sécurité devient encore plus grave.Contrairement aux logiciels traditionnels, les modèles d'IA fonctionnent de manière plus dynamique et imprévisible. Ils peuvent apprendre et s'adapter en continu en fonction de nouvelles données, ce qui signifie que leur comportement peut évoluer dans le temps, parfois de façon inattendue. Les attaquants peuvent exploiter ces comportements évolutifs, manipulant les modèles pour générer des résultats trompeurs ou dangereux. La dépendance croissante à l'automatisation pilotée par l'IA rend impératif l'établissement de pratiques robustes de sécurité MLOps pour atténuer ces menaces émergentes.Les défis sécuritaires du MLOpsLe cycle de vie des modèles d'IA/ML présente plusieurs vulnérabilités majeures. L'une des principales préoccupations est le « backdooring » de modèles, où des modèles pré-entraînés peuvent être compromis pour produire des prédictions biaisées ou erronées, affectant des domaines aussi variés que les transactions financières ou les diagnostics médicaux. L'empoisonnement des données constitue un autre risque majeur : des attaquants peuvent injecter des données malveillantes durant la phase d'entraînement, modifiant subtilement le comportement d'un modèle de manière difficilement détectable. Par ailleurs, les attaques, où de légères modifications des données d'entrée trompent les modèles d'IA pour les amener à prendre de mauvaises décisions, représentent un défi sérieux, particulièrement dans les applications sensibles en matière de sécurité.Plus tard dans le cycle de vie, les vulnérabilités d'implémentation jouent également un rôle critique. Des contrôles d'accès faibles peuvent créer des failles d'authentification, permettant à des utilisateurs non autorisés de manipuler des modèles ou d'extraire des données sensibles. Des conteneurs mal configurés hébergeant des modèles d'IA peuvent servir de point d'entrée pour des attaquants cherchant à accéder à l'ensemble de l'environnement informatique. De plus, l'utilisation de modèles ML open source et de jeux de données tiers accroît les risques liés à la chaîne d'approvisionnement, rendant cruciale la vérification de l'intégrité de chaque composant.Si l'IA promet des avancées révolutionnaires, la sécurité ne peut pas être une réflexion après coup. Sécuriser l'IA peut même rendre cette technologie encore plus attractive pour les entreprises. Les organisations doivent prioriser des pratiques MLOps sécurisées pour empêcher les cybermenaces d'exploiter les outils mêmes conçus pour améliorer l'efficacité opérationnelle et la prise de décision.Bonnes pratiques pour un MLOps sécuriséPour se défendre contre les menaces évolutives ciblant les modèles d'IA, les organisations doivent adopter une posture de sécurité proactive. La validation des modèles est essentielle pour identifier les biais potentiels, les modèles malveillants et les faiblesses adversariales avant tout déploiement. La gestion des dépendances garantit que les frameworks et bibliothèques ML – comme TensorFlow et PyTorch – proviennent de dépôts fiables et sont analysés pour détecter d'éventuelles menaces. La sécurité du code doit également être prioritaire, avec des analyses statiques et dynamiques du code source pour détecter les failles potentielles dans les implémentations des modèles d'IA. Cependant, la sécurité ne doit pas s'arrêter au niveau du code source : des menaces peuvent également être dissimulées dans les binaires compilés. Une approche globale doit inclure l'analyse du code binaire pour détecter les risques cachés, tels que les attaques de la chaîne d'approvisionnement, les malwares ou les dépendances vulnérables invisibles dans le code source Au-delà de la sécurisation du code IA, les organisations doivent renforcer leurs environnements de conteneurs en appliquant des politiques strictes sur les images de conteneurs, s'assurant qu'elles sont exemptes de malwares et de configurations incorrectes. La signature numérique des modèles d'IA et des artefacts associés contribue à maintenir l'intégrité et la traçabilité tout au long du cycle de développement. Une surveillance continue doit également être mise en place pour détecter toute activité suspecte, tout accès non autorisé ou tout changement inattendu dans le comportement des modèles. En intégrant ces mesures de sécurité dans le cycle de développement de l'IA, les entreprises peuvent créer des pipelines MLOps résilients qui concilient innovation et protection robuste.L'avenir de la sécurité de l'IAÀ mesure que l'adoption de l'IA s'accélère, la tension entre innovation et sécurité va s'intensifier. L'IA n'est pas un simple outil supplémentaire, c'est un actif stratégique qui nécessite des stratégies de sécurité dédiées. L'émergence de l'IA agentique, avec sa capacité à prendre des décisions autonomes, ajoute une couche de complexité supplémentaire, rendant la gouvernance et la supervision plus importantes que jamais. Les organisations qui adoptent dès maintenant une approche proactive sont mieux positionnées pour naviguer dans ces risques évolutifs sans ralentir l'innovation.Le lancement de DeepSeek et d'innovations similaires continuera de transformer les industries, mais la course à l'innovation ne doit pas se faire au détriment de la sécurité. De même que nous ne construirons pas un gratte-ciel sans fondations solides, nous ne pouvons pas déployer l'IA sans intégrer la sécurité à son cœur même. Les organisations qui réussiront dans ce nouveau monde piloté par l'IA seront celles qui reconnaîtront la sécurité non pas comme un frein, mais comme un accélérateur du progrès.En adoptant une posture proactive en matière de sécurité de l'IA, les entreprises peuvent s'assurer qu'elles ne se contentent pas de suivre les dernières évolutions, mais qu'elles protègent aussi leur avenir dans un monde de plus en plus gouverné par l'intelligence artificielle.Shachar MenasheVice-Président de la Recherche en Sécurité chez JFrog

Source LogoProgrammez!
News Image
L’« open innovation », levier d'efficience pour les établissements de santé ?

L’innovation en santé ne manque ni d’idées ni de technologies, mais elle peine encore à transformer le quotidien des soignants et des patients. Entre la profusion d’offres numériques et la complexité des besoins du terrain, et notamment des Systèmes d’Informations Hospitaliers (SIH), on s’interroge : comment faire émerger des solutions réellement utiles, qui font gagner du temps aux professionnels de santé et améliorent la qualité des soins ? (Re)penser l’innovation : du concept à l’usage L’accumulation de technologies n’est plus suffisante. Il faut une dynamique collective entre usagers, développeurs et organisations de santé. Un nouveau paradigme, celui de l'« open innovation » prend le relais de l’abondance d’innovations avec pour objectif de rapprocher les besoins du terrain et la capacité d’expérimentation des start-ups, tout en garantissant la cohérence et la sécurité par la gouvernance publique. L’enjeu n’est plus de « faire différemment », mais de faire ensemble, dans une logique d’interopérabilité, d’efficience, d’économie et de souveraineté. Une architecture numérique basée sur la fiabilité et l’ouverture

Source Logol'Opinion