Toulouse networks
59.6K views | +1 today
Follow
Toulouse networks
Networking in Toulouse - Réseautage de la Ville Rose
Your new post is loading...
Your new post is loading...

Popular Tags

Current selected tag: 'IA'. Clear
Scooped by Jacques Le Bris
Scoop.it!

ChatGPT vs MS Copilot vs Claude 3 vs Gemini vs Mistral vs Llama 3 : choc des titans v3

ChatGPT vs MS Copilot vs Claude 3 vs Gemini vs Mistral vs Llama 3 : choc des titans v3 | Toulouse networks | Scoop.it

ChatGPT vs MS Copilot vs Claude 3 vs Gemini vs Mistral vs Llama 3 : choc des titans v3
Les meilleurs Chatbots IA de 2024

👋 Pour vous aider à y voir clair, j'ai créé le seul tableau comparatif complet en français des principaux Chatbots IA :
- Prix
- Fonctionnalités
- Performances
- Caractéristiques techniques

NOUVEAU !
Voici la version 3 de ce tableau :

1 - J'ai ajouté un LLM : Llama 3 qui vient de sortir

Meta ne donne pas d'interface de chat accessible au grand public FR mais on a déjà quelques infos prometteuses
Et il est déjà testé dans plusieurs classements comparatifs de performances. Et accessible sur site meta . ai ou multi LLM comme Poe.

2 - J'ai corrigé plusieurs critères chiffrés, notamment suite à commentaire et aux mises à jour de GPT-4 Turbo (2024-04-09) + MS Copilot + Gemini

3 - J'ai ajouté les classements en capacités de :

- Rédaction en français selon le chatbot Arena de LMSYS (814 700 avis humains !)

- Codage selon le LLM leaderboard interactif du site Vellum ai

Point majeur sur la course au sommet des 6 titans :
--------------

- MARS : Claude 3 Opus, le LLM d'Anthropic, soutenu par Amazon et Google et fondée par d'anciens vice-présidents d'OpenAI, a réussi à dépasser GPT-4 Turbo au classement Chatbot Arena. Mais son règne fut de courte durée.

- AVRIL : OpenAI vient de récupérer la couronne avec des compétences améliorées en mathématiques, en raisonnement logique, en codage et en écriture (dans GPT-4 Turbo et ChatGPT payant).

IMPORTANT
----------
Cliquez sur le lien en commentaire 👈 afin de vous inscrire à la newsletter pour :
1- télécharger ce tableau en version complète détaillée HD demain.
2- recevoir automatiquement les futures mises à jour.

bit.ly/appynewsletter

Merci de liker 💖, commenter et partager pour donner de la force à ce tableau et m'encourager à le maintenir à jour gratuitement.

Limites de mon tableau :

1 - Devant les polémiques montantes concernant la consommation électrique de l'IA, il serait intéressant d'ajouter la conso de l'apprentissage, de l'utilisation...

2 - Certaines lignes mériteraient d’avoir une évaluation du type 1 ⭐️ à 5 étoile ⭐️ ⭐️ ⭐️ ⭐️ ⭐️ (plutôt qu’un oui / non)

3 - Le critère pour évaluer la gestion de la confidentialité mériterait d’être documenté (surtout pour les LLM annoncés gratuit et dont le business modèle est financé par la connaissance client et la publicité)

Pour ces 3 points, la difficulté est de trouver les sources fiables qui ne font pas débat d'expert. Si vous avez je suis preneur...

---------

Dites en commentaire quel votre champion favori et pourquoi ?

Quelles autres infos absentes aimeriez-vous que ce tableau compare ?


-----

Je vous aide à trouver les meilleurs outils IA pour vos besoins
Et je crée des outils IA personnalisés
C'est le bon moment pour vous former

 

Yvan Demumieux

 

28 avril 2024

Scooped by Jacques Le Bris
Scoop.it!

Comment l’intelligence artificielle devine-t-elle facilement vos mots de passe ?

Comment l’intelligence artificielle devine-t-elle facilement vos mots de passe ? | Toulouse networks | Scoop.it

Des chercheurs de la société de cybersécurité Home Security Heroes ont entraîné une IA pour qu’elle puisse déchiffrer des millions de mots de passe. Il lui a fallu moins… d’une minute pour en trouver la majorité.

Le 4 mai 2023 a eu lieu la journée mondiale du mot de passe. Comme chaque année, cette journée a été occasion de rappeler la nécessité d’avoir des mots de passe compliqués et uniques pour chacun de ses comptes.

Pourquoi cette nécessité absolue ? Si un pirate ou une personne malveillante de votre entourage connaît l’un de vos mots de passe, il peut s’en servir pour commander en ligne en utilisant votre compte bancaire, usurper votre identité pour constituer un dossier de prêt, accéder à des données sensibles de votre entreprise…

Or, trop de personnes minimisent ce risque. La réalité montre pourtant que ce risque est élevé. Pour deux raisons principales. Premièrement, trop de mots de passe sont trop simples. Une récente étude de NordPass (éditeur de logiciels de sécurité) a constaté que les trois mots de passe les plus utilisés sont 123456, 123456789 et azerty. Autant dire, des mots de passe qui n’apportent aucune sécurité, car tout le monde peut les deviner et les tester…

Deuxième facteur à risque : ces mêmes mots de passe trop basiques sont utilisés pour différents comptes. Résultat, on peut facilement les tester pour accéder à vos différents comptes personnels ou professionnels.

ChatGPT

Mais la situation devient cauchemardesque lorsqu’on apprend que des logiciels basés sur l’intelligence artificielle peuvent en deviner des millions en une poignée de minutes ! Immédiatement, on pense à ChatGPT. L’intelligence artificielle dite générative est-elle capable de trouver des mots de passe ? Normalement, cet outil est utilisé pour créer du contenu, faire des résumés, écrire des e-mails…

Des experts en cybersécurité ont voulu en savoir plus et la réponse est surprenante.

Dans un premier temps, ChatPGT fournit une réponse standard du genre : « il ne serait pas éthique de fournir une liste de mots de passe couramment utilisés, car elle pourrait potentiellement être utilisée à des fins malveillantes telles que le piratage ou l’usurpation d’identité ».

Mais dès que vous lui demandez de jouer le rôle d’un chercheur en cybersécurité qui met en garde les utilisateurs contre l’utilisation de mots de passe courants et dangereux, il affiche une liste de termes courants.

Et cette situation devient encore plus catastrophique lorsqu’on utilise une solution basée sur l’apprentissage automatique fondé sur la théorie. Cette démarche est exploitée depuis 2019 par Home Security Heroes et son outil PassGAN.

Selon une étude de cette entreprise spécialisée dans la sécurité informatique, 51 % des mots de passe étaient craqués en moins d’une minute, 65 % en moins d’une heure, 71 % en moins d’un jour et 81 % en moins d’un mois.

« Nous avons pris une liste de 15 680 000 mots de passe courants de l’ensemble de données Rockyou et l’avons utilisée pour l’entraînement et les tests. Nous excluons tous les mots de passe de plus de 18 caractères ou de moins de 4 caractères du champ d’application de cette expérience. La liste finale est ensuite divisée en sous-catégories de longueurs et de types de caractères différents », explique Home Security Heroes sur son site.

Gestionnaires de mots de passe : la solution à tous les maux

Comment cet outil est-il plus efficace que des solutions qui existent déjà depuis des années comme HashCat et John the Ripper ?

Copyright : Home Security Heroes

À la différence de ces deux programmes qui testent des mots de passe en se référant à des dictionnaires et des règles de génération de mots de passe, PassGAN utilise un réseau adversarial génératif (Generative Adversarial Network-GAN) pour apprendre de manière autonome la distribution de vrais mots de passe à partir de fuites avérées de mots de passe, et pour générer des suppositions de mots de passe de haute qualité.

Si PassGAN peut deviner facilement des mots de passe trop simples, cette étude permet également de savoir quel type de mot de passe est le plus difficile à trouver. Comme le montre le tableau ci-dessus, les mots de passe qui comprennent plus de 18 caractères (symboles, chiffres, lettres minuscules et majuscules) sont généralement sûrs, car il faut à PassGAN au moins 10 mois pour le trouver.

En d’autres termes, plus votre mot de passe est dit « fort » (soit plus de 18 caractères), plus la probabilité que des personnes ou des systèmes d’intelligence artificielle puissent le déchiffrer est faible.

Pour de nombreuses personnes (les mêmes qui utilisent des mots de passe trop simples ou identiques pour différents comptes…), créer et mémoriser un mot de passe de 18 caractères s’apparente à un défi insurmontable. C’est oublier qu’il existe des logiciels dédiés à cette problématique.

 

Appelés gestionnaires de mots de passe, ils gèrent et sauvegardent eux-mêmes tous vos mots de passe. Vous n’en avez qu’un seul à connaître, celui qui permet d’ouvrir ce fameux logiciel.

 

Posté le 16 mai 2023 par Philippe RICHARD

No comment yet.
Scooped by Jacques Le Bris
Scoop.it!

Les technologies numériques sont-elles la solution pour gérer et sortir de la crise liée à la pandémie de Covid-19 ?

Les technologies numériques sont-elles la solution pour gérer et sortir de la crise liée à la pandémie de Covid-19 ? | Toulouse networks | Scoop.it

Nombreux sont les articles et communiqués de presse promouvant des technologies en particulier numériques pour gérer et accélérer la sortie de crise, aussi bien côté économique que sanitaire. Blockchain, intelligence artificielle, IOT, smart city, smart building, smart home / domotique, NFC / RFID, et informatique quantique vont nous sauver de ce mauvais pas. Il n’y a plus qu’à. En marge de la technologie, l’innovation est aussi de la partie. Ceci dit, d’autres articles sont plus prudents et dénoncent ce solutionnisme technologique à tout crin. Quelle est la réalité derrière les technologies proposées ? Sont-elles des solutions opérationnelles, déployables à grande échelle, de simples opportunités de communication ou des technologies en recherche de problèmes à résoudre ?  Petit tour d’horizon à travers une revue de presse franco-françaises d’articles généralistes ou spécialisées, d’annonces d’entreprises industrielles et de tribunes de sociétés de conseils, un tour d’horizon forcément partiel et probablement partial, sans conclusion définitive, bien entendu.

 

Et d’abord, la blockchain et la sortie du livre blanc « La blockchain dans le monde d’après », publié par Havas Blockchain avec une préface claironnante de Jacques Séguéla « Tech sans affect n’est que ruine de l’homme. Tech sans Blockchain, ruine de la publicité. A chacun de choisir son destin, en être ou ne pas être. Comment hésiter ? » (1)  Pour les auteurs de ce document, la blockchain est au cœur des enjeux sanitaires (Chapitre 2). La crise du Covid-19 a révélé le potentiel de la blockchain en santé (principalement pour le contact tracing et le partage des données des patients – app StopCovid ou passeport de santé). La question est posée : la blockchain est elle la solution pour un déconfinement réussi ?  Plus loin, la blockchain va renouveler le monde économique & financier (Chapitre 3).

Dans Les Echos, Coronavirus : la blockchain est un outil de gestion de crise et cite les projets d’IBM dans le domaine. « La technologie n’éradiquera pas le Covid-19, mais elle pourrait permettre de mieux gérer l’épidémie. »  Le cabinet de conseil PWC explique comment la blockchain permet de faire face aux conséquences de la crise.  Wavestone, autre cabinet de conseil, renchérit dans une tribune de La Tribune justement.  COVID-19 et Blockchain  : une technologie aux nombreux atouts en période de crise.  Enfin, WeDemain présente trois applications qui utilisent la blockchain pour lutter contre le Covid-19 autour de la modélisation du virus, la luttre contre les fake news médicales et la traçabilité des traitements.

Neil Graham – Artificial intelligence – 1979

 

L’Intelligence artificielle (IA) est présentée comme un outil pour aider les chercheurs dans leurs recherches de traitements et d’un vaccin. Dans le Monde,  Coronavirus : comment l’intelligence artificielle est utilisée contre le Covid-19 « Ces deux-là étaient faits pour se rencontrer. D’un côté, le nouveau coronavirus SARS-CoV-2, qui s’est répandu d’une façon inattendue et globale sur la planète. De l’autre, l’intelligence artificielle (IA), qui a connu la même diffusion mondiale par ses succès dans les domaines de la reconnaissance d’images, des jeux (go, poker, jeux vidéo…), de la traduction automatique, de la reconnaissance de la parole, de la conduite sans pilote… Il était donc naturel que cette dernière cherche à s’attaquer au défi urgent du contrôle de la pandémie.  L’Usine Nouvelle nous explique comment l’Europe compte sur l’IA pour accélérer la découverte de médicaments.  Pour le JDN Tech, l’IA est aussi une nouvelle arme pour faire respecter les gestes barrières et éviter un rebond.

Enfin, le Conseil de l’Europe a publié un site Intelligence artificielle et contrôle du COVID-19.

 

Naturellement, l’Internet des objets (IoT) doit faire partie des réponses au coronavirus (COVID-19). Le cabinet  Bearing Point aborde dans un webinaire le sujet de la qualité de l’air post  Covid-19 améliorée par l’IoT. Sigfox a lancé un appel à projets IoT pour lutter contre le COVID-19 relayé par le site ObjetConnecté. « Sigfox a énoncé certains exemples qui prouvent que l’IoT est déjà au cœur de cette lutte collective contre le COVID-19. Parmi eux, on distingue des capteurs pour suivre les équipements de protection. Ils identifient la disponibilité de réservoirs d’oxygène pour aider à résoudre les problèmes respiratoires causés par le virus. Ce qui permet d’alerter le personnel des foyers de soins sur les mouvements irréguliers des patients âgés. » Dans ZoneBourse, on trouve cinq sociétés pionnières de l’IoT qui s’associent pour combattre le Covid-19 et offrir aux hôpitaux espagnols une solution clé en main de bouton d’appel d’urgence. Et pour IOT Industriel by Ozone Connect, l’IoT s’inscrit dans la guerre du Coronavirus.  « Naturellement, l’Internet des objets  doit faire partie des réponses au coronavirus ! »

 

Pour Smart City Mag, Dijon s’appuie sur la smart city pour gérer la crise.

Un webinaire organisé par le Moniteur a été consacré aux opportunités économiques et opérationnelles et nouveaux enjeux du smart building (2).  La troisième partie a été spécifique à la relance de l’activité post-covid. La réouverture des bâtiments tertiaire est accompagnée de nouvelles mesures de distanciation sociale, de nouvelles normes de qualité de l’air, de comptage des personnes dans les bâtiments, de fléchage. Les intervenants de la SBA, Engie Home Solutions et la Maif expliquent comment les différentes technologies du smart building permettent cette réouverture.

 

Même dans le cadre de la Smart Home / Domotique, un domaine où le risque de contamination est normalement le plus faible, des solutions peuvent aider. Selectra nous explique comment la domotique peut aider à gérer la crise sanitaire.

Paiement sans contact (c) Franck Dubray, Ouest France

Avec la crise sanitaire, la technologie NFC s’est retrouvée sous les feux de l’actualité avec le paiement sans contact, cartes ou mobile. L’usage a explosé, le paiement pouvant être effectué en magasin jusqu’à 50 € sans toucher au terminal de paiement, ce mode de paiement devenant un geste barrière pour tous. Cette possibilité d’interagir sans contact (NFC et plus globalement RFID) a bien sûr d’autres applications dans un monde nouveau où il devient important d’éviter les contacts. Des experts du NFC Forum en discute dans ce webinaire en anglais comprenant un grand nombre d’applications détaillées. NFC Innovation In The Age Of The Coronavirus. La technologie est depuis longtemps utilisée dans les hôpitaux pour la traçabilité en particulier des matériels et aussi dans la lutte contre les maladies nosocomiales, un sujet déjà abordé dans ce blog – Un confinement doublement sans contact, gestes barrières et solutions technologiques de sortie de crise

 

L’informatique quantique est  également présente dans ce panorama. Le site Le Big Data pose la question :  COVID-19 : bientôt un remède grâce au Machine Learning quantique ?

Certaines technologies sont montrées du doigt pour des raisons de vie privée et de sécurité des données.  Pour l’Usine Nouvelle, le Bluetooth devient le cyber maillon faible du traçage numérique.

 

On peut apprendre beaucoup des gestions de crises précédentes et du rôle de l’innovation pour en sortir et c’est ce que nous explique Marc Giget, président de l’EISCI (European Institute for Creative Strategies and Innovation) à travers une étude à télécharger mais également une vidéo (une information déjà présentée dans ce blog).  Il est clé d’innover dès maintenant même si cela est complexe avec les difficultés financières des entreprises en tant de crise. Marc donne des pistes à court, moyen et long terme pour aider les entreprises à sortir de la crise grâce à l’innovation,  des innovations non seulement technologiques mais aussi serviciels, organisationnels, humaines, de business model, …

Future Technology Panic (c) BBC

En parallèle, l’excellent site internetactu.net a adapté et commenté en profondeur sous le titre  « Le (petit) théâtre de la techno », un article américain sur le solutionnisme technologique. « Nombre de politiques publiques reposent désormais sur des questions technologiques. Et quand on envisage de répondre à des problèmes politiques par des solutions technologiques, bien souvent, la conversation publique se concentre sur les choix de conception et les détails des mises en œuvre, au détriment des questions plus difficiles auxquelles il faudrait répondre, à savoir les questions de pouvoir et d’équité. »  Dans un même registre, une tribune d’Olivier Duha dans les Echos pose la question des promesses non tenues de certaines technologies et en particulier l’IA. Covid-19: où est passée l’intelligence artificielle?  « Il est temps de se poser sérieusement la question du bénéfice et de l’intérêt de nos innovations avant de les qualifier de progrès pour l’humanité. » Le rôle des GAFA(M) dans la gestion de crise est également discuté   « Qu’ont fait les GAFA pour nous, dans cette période ? » sur LinkedIn.

 

La conclusion est forcément décevante. Il est clair que les technologies seules ne résoudront pas la crise. Les exemples cités sont pour la plupart des propositions, des possibilités en quête de déploiement que des cas d’usage en place. La science, la recherche, la médecine, les pouvoirs publics, tous les acteurs du monde médical peuvent s’appuyer sur telle ou telle technologie pour progresser et accélérer la sortie de crise, à la fois sanitaire et économique. Il n’y a pas d’outils magiques, mais de nombreux outils à disposition, à utiliser en respectant l’éthique, la sécurité et la vie privée des patients, dans une entente recherche, industriels, pouvoirs publics et chacun d’entre nous.

Par delà les technologies du numérique (NTIC) abordées dans ce billet, c’est plus globalement celles des NBIC (nanotechnologies, biotechnologies, technologies de l’Information et sciences cognitives) que viendront les solutions à moyen et long terme mais ceci est une autre histoire.

 

A suivre … en continuant à respecter les gestes barrières et à porter le masque, des actions difficilement remplaçables par le numérique dans l’espace public. Stay safe.

 

 

Pierre Métivier
@PierreMetivier

 

Jacques Le Bris's insight:

Notes

  1. Hésiter pourtant est une possibilité, la blockchain, pleine de promesses, n’ayant permis, jusqu’à présent, que la création d’un seul produit réellement global (j’insiste sur le global), le bitcoin, un instrument financier principalement spéculatif (Je ne vais pas me faire beaucoup d’amis avec cette phrase )
  2. Un webinaire que j’ai eu le plaisir d’animer.
No comment yet.
Scooped by Jacques Le Bris
Scoop.it!

Smart City : "il faut concevoir une IA avec ses utilisateurs et non pas pour eux"

Smart City : "il faut concevoir une IA avec ses utilisateurs et non pas pour eux" | Toulouse networks | Scoop.it

Laurence Devillers veut une intelligence artificielle transparente à tous les niveaux.

 

Comment pouvons-nous faire accepter l'intelligence artificielle par tous et comment la réguler ? Ces problématiques ont été abordées lors de la 5ème édition du Forum Smart City organisé par La Tribune, vendredi 13 décembre, dans la salle des Illustres du Capitole à Toulouse. Voici un décryptage de ce que doit être l'IA selon des chercheurs qui privilégient la création d'un "GIEC" de l'IA.

 

Faut-il avoir peur de l'intelligence artificielle et des technologies qui l'utilisent ? Depuis plusieurs années, ce débat anime la place publique entre les potentiels emplois qu'elle peut faire disparaître, ou encore l'exploitation des données que cette intelligence récolte sur ses utilisateurs, sans parler des robots intelligents qui pourraient remplacer les hommes ? Face à ces inquiétudes, le Forum Smart City, organisé par La Tribune, a consacré une table ronde sur le sujet, vendredi 13 décembre, à l'occasion de sa 5ème édition.

"La donnée et son utilisation sont l'ADN de la métropole toulousaine avec le programme Smart City mis en place sur la période 2015-2020. Cela est observable avec le développement de la plateforme Open Data Toulouse Métropole, chargée de collecter et d'analyser les données publiques pour créer les usages de demain. C'est dans cette optique que nous travaillons avec Indigo, notamment pour tenter d'indiquer avant que vous entriez avec votre voiture dans le centre-ville si des places de parking sont disponibles. Mais Aniti va nous permettre d'aller plus loin encore", tente de rassurer Bertrand Serp adjoint au maire de Toulouse et vice-président de la Métropole en charge de l'innovation et du numérique.

L'IA sera au cœur de la ville intelligente de demain (Crédits : Rémi Benoit).

De plus, la Ville rose a obtenu il y a quelques mois un institut interdisciplinaire 3IA, initié par le rapport Villani, grâce à son projet Aniti basé sur l'intelligence artificielle appliquée sur les mobilités et la santé. Ce projet regroupe ainsi des dizaines de chercheurs du monde entier, des laboratoires, des collectivités, des grands groupes industriels et des startups.

Lire aussi : Toulouse attire une star américaine de l'intelligence artificielle

 

Il faut une IA explicable et transparente

"C'est une très bonne chose que Toulouse ait décroché cet institut. Aniti va permettre de développer l'intelligence artificielle. Mais il faudra développer une IA explicable et certifiable et non pas une boite noire indéchiffrable", insiste Rachid Alami, chercheur CNRS au LAAS et titulaire de la chaine Aniti "Human Robot Interactions".

Le chercheur Rachid Alami travaille sur le développement de robots autonomes et leurs interactions avec les hommes (Crédits : Rémi Benoit).

Certains tentent déjà de l'expliquer auprès du grand public comme le Toulousain Luc Julia. Cet ingénieur, passé par Apple et HP au sein de la Silicon Valley, dirige la division IoT de Samsung et a récemment sorti un livre nommé "L'intelligence artificielle n'existe pas" aux éditions First. Dans une interview accordée à La Tribune quelques semaines après, il dénonçait les discours alarmistes de certains sur l'IA tout en appelant à écouter ceux qui font vraiment de l'intelligence artificielle et qui la maîtrisent. Dans ce sens, des chercheurs appellent à mettre en avant la transparence de cette technologie pour la faire accepter de tous.

"La question que nous devons nous poser est la suivante : voulons-nous créer une intelligence artificielle et une smart city de confiance ? Si c'est le cas, l'économie de demain devra être éthique. Les machines doivent être plus transparentes et non pas aux mains de quelques-uns. Il va falloir arriver à un certain degré de démystification de ces objets. Pour y parvenir, il faut concevoir une IA avec ses utilisateurs et non pas pour ses utilisateurs", argumente Laurence Devillers, professeure en IA à la Sorbonne-Université, chercheuse au LIMSI-CNRS et auteur du livre "Des robots et des hommes".

En partenariat avec la startup Soben, Enedis a développé ce robot à base d'IA qui suit à la trace l'opérateur sur le terrain et qui se présente comme un sac à dos (Crédits : Rémi Benoit).

Lire aussi : À Toulouse, les opérateurs d'Enedis travaillent avec un robot intelligent

 

Un besoin de politiques régulatrices ?

Pour insuffler ce besoin d'éthique et de transparence sur qui doivent compter les citoyens ? Au-delà des industriels, un cadre politique sera nécessaire à l'image de la charte signée entre le moteur de recherche Qwant et les collectivités d'Occitanie pour promouvoir un numérique éthique et souverain.

"Les politiques sont au cœur du système car c'est à eux de fixer les règles. Alors aujourd'hui, il est dit que la France est trop normée mais grâce à ces gardes-fous nous savons où nous allons", justifie Bertrand Serp.

Pour l'élu, les collectivités doivent fixer les limites de ce que deviendra l'IA (Crédits : Rémi Benoit).

"On donne des règles à la machine que seul l'humain établit ! Ce n'est pas la machine qui va établir des règles de manière autonome", avait également précisé Luc Julia dans son entretien. Pour établir ces règles, Rachid Alami évoque la possible création "d'un équivalent du GIEC pour l'intelligence artificielle afin de réfléchir sur cette technologie de manière responsable". Sera-t-il entendu ? Les années à venir donneront la réponse.

 

 

No comment yet.
Scooped by Jacques Le Bris
Scoop.it!

Des ingénieurs belges déjouent une IA grâce à de simples pancartes

Des algorithmes hyper puissants battus par un stratagème basique.

 

Les nouvelles technologies génèrent de nombreuses craintes. Pour tenter de faire face à la reconnaissance faciale, des chercheurs belges ont imaginé un stratagème : faire porter à des testeurs, une pancarte sur laquelle une image de foule est collée, pour déjouer l’attention des intelligences artificielles. Ça fonctionne !

Alors que la reconnaissance faciale couvrira bientôt 79% des aéroports américains, des ingénieurs de l’université belge KU Leuven veulent s’opposer au dictat de cette technologie. Comment déjouer ces algorithmes hyper-puissants et potentiellement dangereux pour nos sociétés ? C’est la question à laquelle ils ont tenté de répondre en imaginant un stratagème « basique » pour perturber l’IA en question, du nom de YOLOv2.

L’idée ? Une pancarte sur laquelle est collée la photo d’une foule. Les chercheurs ont réussi à prouver dans cette vidéo que l’intelligence artificielle était totalement perturbée par cette photo. Elle n’est plus en mesure d’identifier les individus « réels ». Les chercheurs précisent que : « cette technique pourrait rendre une personne virtuellement invisible pour les caméras de surveillance automatisée ». Vous comprendrez mieux avec cette vidéo ci-dessus.

 

Des méthodes archaïques pour faire face à des technologies hyper puissantes. Cela peut paraître dérisoire et pourtant ça fonctionne. L’idée est de faire face à la puisse d’États non-démocratiques comme la Chine, qui introduisent la reconnaissance faciale à tous les niveaux. En effet, le géant asiatique annonçait en mars dernier que cette technologie serait introduite pour payer le métro.

Les intelligences artificielles spécialisées dans la reconnaisse visuelle sont très présentes de nos jours.

À titre d’exemple, elle a déjà été utilisée dans un lycée français pour filtrer les élèves et limiter les intrusions.

Ce fut également le cas à Londres en décembre dernier, dans le cadre d’un essai pour la police britannique.

Évidement, les algorithmes ne sont pas mauvais en eux-mêmes. Le problème, c’est l’usage qui en est fait.

 

Par Valentin Cimino Twitter@ciminix

Source : https://siecledigital.fr/2019/04/25/des-ingenieurs-belges-dejouent-une-ia-grace-a-de-simples-pancartes/

 

Jacques Le Bris's insight:

Supplementary material of our paper to be presented on the CVPR Workshop: CVCOPS (https://cvcops19.cispa.saarland/).

Simen Thys, Wiebe Van Ranst, and Toon Goedemé.

"Fooling automated surveillance cameras: adversarial patches to attack person detection."

https://arxiv.org/abs/1904.08653

Contact: wiebe.vanranst@kuleuven.be, toon.goedeme@kuleuven.be, simen.thys@student.kuleuven.be http://eavise.be

No comment yet.
Scooped by Jacques Le Bris
Scoop.it!

L'Europe veut relever le défi de l'intelligence artificielle

L'Europe veut relever le défi de l'intelligence artificielle | Toulouse networks | Scoop.it

La Commission européenne veut développer les investissements dans l'intelligence artificielle et accompagner son essor par un meilleur partage des données. Elle prépare un code éthique sur le recours au robot.

 

C'est une révolution « qui est déjà là » et que l'Europe doit prendre à bras-le-corps : mercredi, la Commission européenne a dévoilé un plan d'action en faveur de l'intelligence artificielle (IA) en soulignant l'« urgence » de ne plus se laisser distancer par les Etats-Unis et l'Asie dans cette compétition mondiale.

Rattraper l'Amérique

« L'Europe doit investir au moins 20 milliards d'euros d'ici à 2020 », insiste Andrus Ansip, vice-président de l'exécutif européen. La Commission montre l'exemple, en promettant d'y consacrer 2 milliards de fonds européens, qui devraient générer selon elle 2 autres milliards d'euros d'investissement via les partenariats publics privés liés, en particulier dans le Big Data et la robotique. Elle appelle les Etats à lancer eux aussi des plans en ce sens, à l'instar de celui annoncé récemment par Emmanuel Macron ou de celui que prépare l'Allemagne. « La concurrence féroce au niveau international exige une action coordonnée » de l'UE, insiste la Commission, qui va préparer un plan en ce sens avec les Etats membres. Le 10 avril, 24 pays de l'UE, et la Norvège, ont signé une déclaration d'intention d'unir leur force dans le développement de l'IA. « Après 2020, il faudrait atteindre au moins 20 milliards d'euros investis chaque année », estime la commissaire au Numérique, Mariya Gabriel.

Le nerf de la guerre est bien financier. Si l'Europe peut se targuer de la qualité de ses chercheurs, de ses start-up et de son savoir-faire technologique (transports, médicaments, agriculture, etc.) comme autant d'atouts actuels et futurs, les fonds peinent à suivre : les investissements publics et privés dans l'IA ne pèsent aujourd'hui que de 4 à 5 milliards d'euros par an en Europe, deux à trois fois moins qu'en Asie et trois à quatre fois moins qu'aux Etats-Unis.

 

Libérer les données publiques

Les trois quarts proviennent globalement de l'investissement privé, que Bruxelles espère doper en favorisant l'accès aux données non personnelles, qualifiées d'« engrais de l'intelligence artificielle ». La commission propose pour cela de réviser la directive sur la réutilisation des informations du secteur public pour l'étendre aux secteurs des transports et des services collectifs et faciliter la réutilisation des données de recherche en libre accès résultant de financements publics. Elle annonce aussi, au passage, des recommandations sur la façon dont les dossiers médicaux électroniques des citoyens européens peuvent être échangés entre Etats membres.

 
 

Charte éthique

Le plan d'action prévoit enfin l'établissement, d'ici la fin de l'année, d'une charte éthique du recours à l'intelligence artificielle, comme le réclame un rapport du Parlement européen de janvier 2017. Bruxelles n'a en revanche pas retenu la proposition des eurodéputés de créer , jugeant cette option très prématurée.

 

Derek Perrotte
No comment yet.
Scooped by Jacques Le Bris
Scoop.it!

AI, the humanity!

AI, the humanity! | Toulouse networks | Scoop.it

A loss for humanity! Man succumbs to machine!

If you heard about AlphaGo’s latest exploits last week — crushing the world’s best Go player and confirming that artificial intelligence had mastered the ancient Chinese board game — you may have heard the news delivered in doomsday terms.

There was a certain melancholy to Ke Jie’s capitulation, to be sure. The 19-year-old Chinese prodigy declared he would never lose to an AI following AlphaGo’s earthshaking victory over Lee Se-dol last year. To see him onstage last week, nearly bent double over the Go board and fidgeting with his hair, was to see a man comprehensively put in his place.

But focusing on that would miss the point. DeepMind, the Google-owned company that developed AlphaGo, isn’t attempting to crush humanity — after all, the company is made up of humans itself. AlphaGo represents a major human achievement and the takeaway shouldn’t be that AI is surpassing our abilities, but instead that AI will enhance our abilities.

Demis Hassabis, DeepMind co-founder and CEO.

When speaking to DeepMind and Google developers at the Future of Go Summit in Wuzhen, China last week, I didn’t hear much about the four games AlphaGo won over Lee Se-dol last year. Instead, I heard a lot about the one that it lost.

“We were interested to see if we could fix the problems, the knowledge gaps as we call them, that Lee Se-dol brilliantly exposed in game four with his incredible win, showing that there was a weakness in AlphaGo’s knowledge,” DeepMind co-founder and CEO Demis Hassabis said on the first day of the event. “We worked hard to see if we could fix that knowledge gap and actually teach, or have AlphaGo learn itself, how to deal with those kinds of positions. We’re confident now that AlphaGo is better in those situations, but again we don’t know for sure until we play against an amazing master like Ke Jie.”

“AlphaGo Master has become its own teacher.”

As it happened, AlphaGo steamrolled Ke into a 3-0 defeat, suggesting that those knowledge gaps have been closed. It’s worth noting, however, that DeepMind had to learn from AlphaGo’s past mistakes to reach this level. If the AI had stood still for the past year, it’s entirely possible that Ke would have won; he’s a far stronger player than Lee. But AlphaGo did not stand still.

The version of AlphaGo that played Ke has been completely rearchitected — DeepMind calls it AlphaGo Master. “The main innovation in AlphaGo Master is that it’s become its own teacher,” says Dave Silver, DeepMind’s lead researcher on AlphaGo. “So [now] AlphaGo actually learns from its own searches to improve its neural networks, both the policy network and the value network, and this makes it learn in a much more general way. One of the things we’re most excited about is not just that it can play Go better but we hope that this’ll actually lead to technologies that are more generally applicable to other challenging domains.”

AlphaGo is comprised of two networks: a policy network that selects the next move to play, and a value network that analyzes the probability of winning. The policy network was initially based on millions of historical moves from actual games played by Go professionals. But AlphaGo Master goes much further by searching through the possible moves that could occur if a particular move is played, increasing its understanding of the potential fallout.

“The original system played against itself millions of times, but it didn’t have this component of using the search,” Hassabis tells The Verge. “[AlphaGo Master is] using its own strength to improve its own predictions. So whereas in the previous version it was mostly about generating data, in this version it’s actually using the power of its own search function and its own abilities to improve one part of itself, the policy net.” Essentially, AlphaGo is now better at assessing why a particular move would be the strongest possible option.

“The whole idea is to reduce your reliance on that human bootstrapping step.”

I asked Hassabis whether he thought this system could work without the initial dataset taken from historical games of Go. “We’re running those tests at the moment and we’re pretty confident, actually,” he said. “The initial results have been that it’s looking pretty good. That’ll be part of this future paper that we’re going to publish, so we’re not talking about that at the moment, but it’s looking promising. The whole idea is to reduce your reliance on that human bootstrapping step.”

But in order to defeat Ke, DeepMind needed to fix the weaknesses in the original AlphaGo that Lee exposed. Although the AI gets ever stronger by playing against itself, DeepMind couldn’t rely on that baseline training to cover the knowledge gaps — nor could it hand-code a solution. “It’s not like a traditional program where you just fix a bug,” says Hassabis, who believes that similar knowledge gaps are likely to be a problem faced by all kinds of learning systems in the future. “You have to kind of coax it to learn new knowledge or explore that new area of the domain, and there are various strategies to do that. You can use adversarial opponents that push you into exploring those spaces, and you can keep different varieties of the AlphaGo versions to play each other so there’s more variety in the player pool.”

 

“Another thing we did is when we assessed what kinds of positions we thought AlphaGo had a problem with, we looked at the self-play games and we identified games algorithmically — we wrote another algorithm to look at all those games and identify places where AlphaGo seemed to have this kind of problem. So we have a library of those sorts of positions, and we can test our new systems not only against each other in the self-play but against this database of known problematic positions, so then we could quantify the improvement against that.”

Dave Silver, DeepMind’s lead researcher on AlphaGo.

None of this increase in performance has required an increase in power. In fact, AlphaGo Master uses much less power than the version of AlphaGo that beat Lee Se-dol; it runs on a single second-gen Tensor Processing Unit machine in the Google Cloud, whereas the previous version used 50 TPUs at once. “You shouldn’t think of this as running on compute power that’s beyond the access of normal people,” says Silver. “The special thing about it is the algorithm that’s being used as opposed to the amount of compute.”

AlphaGo learned from humans, and humans are learning from AlphaGo

AlphaGo is learning from humans, then, even if it may not need to in the future. And in turn, humans have learned from AlphaGo. The simplest demonstration of this came in Ke Jie’s first match against the AI, where he used a 3-3 point as part of his opening strategy. That’s a move that fell out of favor over the past several decades, but it’s seen a resurgence in popularity after AlphaGo employed it to some success. And Ke pushed AlphaGo to its limits in the second game; the AI determined that his first 50 moves were “perfect,” and his first 100 were better than anyone had ever played against the Master version.

Although the Go community might not necessarily understand why a given AlphaGo move works in the moment, the AI provides a whole new way to approach the game. Go has been around for thousands of years, and AlphaGo has sparked one of the most profound shifts yet in how the game is played and studied.

But if you’re reading this in the West, you probably don’t play Go. What can AlphaGo do for you?

Andrew Jackson and Lee Ha-jin discuss AlphaGo's first game against Ke Jie.

Say you’re a data center architect working at Google. It’s your job to make sure everything runs efficiently and coolly. To date, you’ve achieved that by designing the system so that you’re running as few pieces of cooling equipment at once as possible — you turn on the second piece only after the first is maxed out, and so on. This makes sense, right? Well, a variant of AlphaGo named Dr. Data disagreed.

“What Dr. Data decided to do was actually turn on as many units as possible and run them at a very low level,” Hassabis says. “Because of the switching and the pumps and the other things, that turned out to be better — and I think they’re now taking that into new data center designs, potentially. They’re taking some of those ideas and reincorporating them into the new designs, which obviously the AI system can’t do. So the human designers are looking at what the AlphaGo variant was doing, and then that’s informing their next decisions.” Dr. Data is at work right now in Google’s data centers, saving the company 40 percent in electricity required for cooling and resulting in 15 percent overall less energy usage.

 

DeepMind believes that the same principle will apply to science and health care, with deep-learning techniques helping to improve the accuracy and efficiency of everything from protein-folding to radiography. Perhaps less ambitiously but no less importantly, it may also lead to more sensible workflows. “You can imagine across a hospital or many hospitals you might be able to figure out that there’s this process one hospital’s using, or one nurse is using, that’s super effective over time,” says Hassabis. “Maybe they’re doing something slightly different to this other hospital, and perhaps the other hospital can learn from that. I think at the moment you’d never know that was happening, but you can imagine that an AI system might be able to pick up on that and share that knowledge effectively between different doctors and hospitals so they all end up with the best practice.”

These are areas particularly fraught with roadblocks and worries for many, of course. And it’s natural for people to be suspicious of AI — I experienced it myself somewhat last week. My hotel was part of the same compound as the Future of Go Summit, and access to certain areas was gated by Baidu’s machine learning-powered facial recognition tech. It worked instantly, every time, often without me even knowing where the camera was; I’d just go through the gate and see my Verge profile photo flash up on a screen. I never saw it fail for the thousands of other people at the event, either. And all of this worked based on nothing more than a picture of me taken on an iPad at check-in.

I know that Facebook and Google and probably tons of other companies also know what I look like. But the weird feeling I got from seeing my face flawlessly recognized multiple times a day for a week shows that companies ought to be sensitive about the way they roll out AI technologies. It also, to some extent, probably explains why so many people seem unsettled by AlphaGo’s success.

But again, that success is a success built by humans. AlphaGo is already demonstrating the power of what can happen not only when AI learns from us, but when we learn from AI. At this stage, it’s technology worth being optimistic about.

 

By Sam Byford

@345triangle

No comment yet.
Scooped by Jacques Le Bris
Scoop.it!

Les géants du Net s’arrachent les startups de l’intelligence artificielle

Les géants du Net s’arrachent les startups de l’intelligence artificielle | Toulouse networks | Scoop.it

Selon CB Insights, le marché des fusions-acquisitions de startups dans l'intelligence artificielle a concerné 260 pépites en cinq ans : 10 en 2012, 19 en 2013, 36 en 2014, 41 en 2015 et 66 en 2016. 2017 s'annonce déjà comme une année record : du 1er janvier au 24 mars, 34 nouvelles startups ont cédé aux sirènes du rachat, principalement par les géants du net.

 

Google, Facebook, Apple, Intel, Salesforce, Samsung, Uber… Depuis cinq ans, les startups de l’intelligence artificielle sont prises d’assaut par les géants du net, qui misent sur cette technologie pour poursuivre et étendre leur domination. La course redouble d’intensité depuis le début de l’année, avec un record de fusions-acquisitions entre janvier et mars.

 

Alors que la France, avec l'initiative France IA, veut mettre les bouchées doubles pour devenir l'un des leaders mondiaux de l'intelligence artificielle, les géants du net, notamment américains, partent tout de même avec une nette longueur d'avance. Selon le cabinet d'études technologiques CB Insights, qui a compilé les fusions-acquisitions de startups dans ce domaine depuis cinq ans, les Google, Apple, Facebook, IBM, Twitter, Intel ou encore Salesforce, ne lésinent pas sur les moyens pour mettre la main sur les pépites qui leur permettront de dominer les nouveaux services intelligents de demain.

     | A lire. Intelligence artificielle : la France peut-elle devenir un leader mondial ?

Le marché des fusions-acquisitions dans l'IA en forte croissance

Le constat est sans appel. Il est double. Tout d'abord, l'attrait des startups de l'intelligence artificielle s'intensifie de manière spectaculaire. Depuis 2012, le marché des fusions/acquisitions dans ce domaine a concerné 260 pépites : 10 en 2012, 19 en 2013, 36 en 2014, 41 en 2015 et 66 en 2016. 2017 s'annonce déjà comme une année record : du 1er janvier au 24 mars, 34 nouvelles startups ont cédé aux sirènes du rachat. Soit plus de la moitié du total de l'année dernière. Le précédent record sur un trimestre était détenu par le troisième trimestre de 2016, avec 28 deals.

Le deuxième enseignement est que ce sont les géants du net américains qui tirent leur épingle du jeu. Le top 6 des plus gros acheteurs de startups dans l'IA se compose de Google (11 acquisitions en cinq ans), Apple (7), Facebook (5), Intel (5), puis Microsoft et Twitter (4). Les entreprises qui s'intéressent à cette nouvelle technologie qui promet de révolutionner la société et l'économie évoluent surtout dans le domaine technologique : on trouve aussi Amazon, Salesforce, Yahoo, IBM, Nokia, ebay, Oracle ou encore Uber.

     | Pour aller plus loin. Faut-il vraiment avoir peur de l'intelligence artificielle ?

Google, Facebook et Apple, les plus agressifs

Le trio de tête, composé de Google, Apple et Facebook, place l'intelligence artificielle au cœur de la stratégie de croissance dans les décennies à venir. Avec un objectif clair : améliorer les services existants, étouffer la concurrence et dominer les nouveaux usages en reliant les nouvelles technologies à la principale plus-value de ces entreprises : leur capacité exceptionnelle à collecter et à traiter des données.

Ainsi, Google, spécialiste de la publicité qui s'immisce dans de nombreux autres domaines comme la santé connectée, le cloud, la voiture autonome ou encore l'accès à internet, ratisse très large. DNN Research, acquise en 2013 pour son expertise de l'apprentissage en profondeur et neuronal (deep learning et neural network), lui a permis d'améliorer son moteur de recherche d'images. Deepmind, acquise en 2014 pour 600 millions de dollars, est derrière les récents exploits d'une intelligence artificielle au jeu de go. Moodstock, achetée en 2016, va aider la firme à développer la « recherche visuelle », tandis que la plateforme Kaggle (2017, analyse prédictive) ou encore les bots de la startup Api.ai seront au cœur de nombreux nouveaux services.

De son côté, Apple, longtemps très secret sur sa recherche dans l'intelligence artificielle, a aussi décidé de muscler son jeu. Depuis début 2016, la marque à la Pomme, déjà pionnière de l'assistant virtuel avec Siri (développée via une startup rachetée en 2010), a mis la main sur pas moins de six pépites de l'IA : Perceptio, Turi et Tupplejump (machine learning), Vocalia (reconnaissance vocale), Emotient (reconnaissance faciale), et Realface (reconnaissance d'empreinte digitale). En janvier, l'entreprise dirigée par Tim Cook a publié son premier article de recherche sur le sujet, dans lequel elle indique se focaliser particulièrement sur l'apprentissage par les machines à partir d'images de synthèse.

Enfin, Facebook s'est lancée dans l'intelligence artificielle dès 2012. Sa première emplette fut face.com, un spécialiste de la reconnaissance faciale, puis JibbiGo en août 2013 (reconnaissance vocale), Wit.ai en janvier 2015 (traduction automatique à partir de la voix), Masquerade en mars 2016 (application permettant d'ajouter des filtres sur les selfies pour concurrencer Snapchat) et enfin, via Oculus, la startup suisse Zurich Eye en novembre dernier (vision par ordinateur). Très vocal sur l'intérêt de l'IA, le groupe a également ouvert en 2015, à Paris, son propre laboratoire, baptisé Facebook Artificial Intelligence Research (FAIR) et dirigé par le français Yann Le Cun, un expert mondialement reconnu. « L'intelligence artificielle doit permettre de trier toute l'information dont un utilisateur dispose afin d'améliorer les interactions sociales », expliquait le chercheur en 2015. Une conviction que partage aussi Twitter, qui mise sur le machine learning et l'intelligence artificielle pour rendre son réseau social plus attractif et trouver -enfin- le chemin de la croissance.

     | A lire. L'intelligence artificielle pourra-t-elle sauver Twitter ?

Intel, Ford, General Electrics et Uber rejoignent la course

Ces derniers mois ont aussi vu de nouveaux acteurs se lancer dans la bataille de l'intelligence artificielle. C'est le cas, notamment, du constructeur automobile Ford, qui a réalisé l'une des plus grosses fusions/acquisitions dans ce domaine en investissant un milliard de dollars dans Argo AI, pour l'aider à mettre au point sa voiture autonome prévue pour 2021. Le constructeur avait déjà acheté l'israélien SAIPS (algorithmes de machine learning pour conduite automatisée) en août 2016. Mais la route avait déjà été tracée par General Motors, qui avait acquis en 2015 la startup Cruise Automation pour concurrencer Google dans la voiture autonome. Uber est aussi dans la course, qui a acquis la startup Geometric Intelligence en décembre 2016, quelques mois après avoir récupéré Otto. Toutes deux sont spécialisées dans les logiciels pour la voiture autonome.

Si les entreprises de la high tech -rejointes aujourd'hui par les acteurs intéressés par la voiture autonome- dominent les fusions/acquisitions dans l'IA, cette technologie intéresse aussi, de manière plus marginale, tous les autres secteurs, notamment pour développer de nouveaux relais de croissance. General Electric, par exemple, a acquis en novembre dernier deux startups : la canadienne Bit Stew Systems et l'américaine Wise.io. L'objectif : concurrencer la plateforme d'intelligence cognitive Watson, d'IBM, qui fait d'ailleurs partie, comme Intel, de ces ex-géants de l'informatique devenues des entreprises technologiques pour compenser le déclin de leur secteur d'activité historique.

 

Par Sylvain Rolland

No comment yet.
Scooped by Jacques Le Bris
Scoop.it!

L'ancien PDG de Google annonce une catastrophe planétaire à cause de l'IA dans cinq ans

L'ancien PDG de Google annonce une catastrophe planétaire à cause de l'IA dans cinq ans | Toulouse networks | Scoop.it

 Tout pourrait basculer dans la décennie à venir.

 

Eric Schmidt, l'ancien PDG de Google, a pris la parole ce 28 novembre lors d'un sommet organisé par le média Axios, indique Futurism. Celui qui est désormais président de la National Security Commission on Artificial Intelligence a affirmé qu'il n'y avait pas assez de mesures de sécurité en place pour maîtriser la technologie et l'empêcher de causer d'importants dégâts. Schmidt est même allé jusqu'à comparer l'intelligence artificielle (IA) aux bombes atomiques lancées sur le Japon en 1945.

 

«Après Nagasaki et Hiroshima, il a fallu dix-huit ans pour parvenir à un traité sur l'interdiction des essais [nucléaires] et d'autres choses de ce genre», a-t-il déclaré à Mike Allen, confondateur d'Axios. «Nous n'avons pas ce temps aujourd'hui.» En effet, il pense que l'IA pourrait devenir suffisamment puissante pour nuire à l'humanité d'ici cinq à dix ans seulement.

 

Des avis divergents

Pour Schmidt, le pire scénario se produira lorsque les ordinateurs pourront prendre leurs propres décisions. Et à ce moment-là, s'ils sont capables d'accéder à des systèmes d'armements ou d'atteindre d'autres capacités terrifiantes, les machines pourraient réussir à mentir aux humains et agir derrière notre dos.

Pour éviter ce genre de catastrophe, Eric Schmidt a demandé la création d'une organisation non gouvernementale, comme le GIEC, pour aider les responsables politiques à prendre des décisions au moment où l'intelligence artificielle deviendra trop puissante.

 

Cette prise de position ne convainc pas tout le monde. Yann Le Cun, directeur à Meta et chercheur en intelligence artificielle, a par exemple déclaré en octobre au Financial Times que la technologie était loin d'être assez intelligente pour menacer l'humanité.

«Le débat sur le risque existentiel est très prématuré tant que nous n'aurons pas conçu un système capable de rivaliser avec un chat en matière de capacités d'apprentissage», avait-il affirmé.

 

Comme souvent, il est difficile de trancher entre ces deux extrêmes. Il semblerait, avance Futurism, que le niveau d'inquiétude que nous pouvons légitimement avoir se trouve quelque part au milieu.

 

 

Repéré par Lola Buscemi — 30 novembre 2023

No comment yet.
Scooped by Jacques Le Bris
Scoop.it!

Projet des Collèges

Projet des Collèges | Toulouse networks | Scoop.it

L’Intelligence Artificielle (IA) occupe de plus en plus notre quotidien sans que nous nous en apercevions. La génération X que nous sommes la perçoit comme une technologie intrusive, susceptible de détruire des emplois et parfois dangereuse. Par manque d’information, par méconnaissance de la vertu de certains usages, par peur de la technologie tout simplement… 

Mais nos enfants ? Connaissent-ils l’intelligence artificielle ?  Qu’en pensent-ils ? Comment vivent-ils avec ? 

Quatre membres de la commission IA du Think Tank NXU ont mené l’enquête en allant à leur rencontre à travers des entretiens vidéos disponibles ci-dessous.

Deux lycées de la région d’Occitanie, avec la collaboration de l’Académie de Toulouse, ont bien voulu nous accueillir pour réaliser une série d’interviews auprès de collégiens de la 5ème à la 3ème pour élucider auprès d’eux ce qui pour nous apparait parfois comme un mystère.

 

Méthode 

 

Le projet a été exposé à l’Académie de Toulouse afin de valider l’opportunité de rencontrer des collégiens pour produire des entretiens vidéo courts autour de leur perception sur l’IA et de son impact sur la société, à l’image des populaires capsules vidéo très nostalgiques et très fortes d’enseignement disponibles aujourd’hui sur le site de l’INA.  

Un collège de la banlieue toulousaine (collège Jacques Maure-Castelginest) et un collège rural (Collège Carnot-Auch) ont permis la réalisation avec la collaboration des élèves de Icam’edia* – association de photos et vidéo de l’Icam de Toulouse – d’une vingtaine d’interviews filmées de groupe de 4-5 collégiens autour de quatre questions : 

  • En quelques mots seulement, c’est quoi l’IA pour toi ?
  • Qu’est-ce que tu veux faire comme métier demain ? 
  • En quoi l’IA va impacter ce métier ?
  • Quel message souhaites-tu faire passer aux concepteurs d’IA pour un monde meilleur ?

 

Cette phase d’interviews a été complétée d’une restitution suivie d’un débat dans chaque collège avec les professeurs sensibilisés, les élèves et leurs parents.

 

Les capsules vidéo des interviews construites sur des thématiques « l’IA et .. » sont disponibles avec l’accord des parties prenantes sur cette page.

 

 

Résultats 

 

La phase d’interviews a concerné au total 73 élèves répartis comme suit: 33 élèves de troisième répartis en 10 groupes au Collège Jacques Maure de Castelginest et 40 élèves de la sixième à la troisième répartis en 12 groupes pour le collège Carnot à Auch.

Elle a apporté un réel éclairage sur la façon dont la génération des Milleniums considère l’Intelligence Artificielle. Plus ou moins préparés aux questions, les collégiens ont apporté des réponses pertinentes aux différentes thématiques abordées (définition de l’IA, bienveillance versus malveillance, confort versus libre arbitre, écologie, science-fiction, emploi).

L’Intelligence Artificielle est souvent personnifiée (beaucoup associée aux robots) et parfois associée à l’informatique de gestion. ils ont un a priori positif de l’utilisation de l’IA: 

 

« Faire le bien »

« Ça peut aider les gens au quotidien : les personnes âgées, faire des recherches…”,

« Ça peut rendre les gens débiles. Si c’est trop on ne se rend plus trop compte de la réalité

“Je pense que c’est l’avenir de l’Homme : elle a été créée par l’Homme mais elle servira à l’Homme”

 

Perçu majoritairement comme un outil d’aide à la décision ou un support à la réalisation de tâches humaines :

 

 ”L’IA remplace les tâches routinières pour qu’on se concentre sur le principal”

”Faire de l’intelligence artificielle de sorte que tout le monde y ait accès facilement et sans danger”

” L’IA c’est aller plus vite là où l’humain serait plus lent”

 

Ils ont une capacité à prendre de la distance par rapport à la technologie. Comme si elle était déjà intégrée naturellement ou spontanément dans leur vie. Ils savent poser un arbitrage sur les façons d’utiliser les technologies d’IA et donnent même un avis assez tranché sur les aspects positifs (appropriation) et négatifs (rejet).

Le développement durable est un sujet mais ils ne voient pas forcément de lien réellement établi avec l’IA, même si des réponses apportées concernent des thématiques « standards » autour de l’économie d’énergie ou une meilleure gestion de la pollution.

Le nombre de références à la science-fiction est assez impressionnant et rejoint la thématique de bienveillance/malveillance et qui s’apparente à une façon de se représenter l’usage de l’IA dans la société. Mais cela ne semble pas les inquiéter outre mesure, riches d’un arbitrage – inné ou acquis – qui leur permet d’exprimer où cela paraît bon ou pas pour l’humain.

En l’occurrence, ils ont une idée plutôt affirmée de la place de l’IA par rapport à celle de l’Homme au travail. Cette technologie n’est pour eux que de nature utilitariste et ne saurait prendre la place de l’homme dans son activité professionnelle. Elle est même considérée comme un moyen d’aider à la prise de décision, d’aider l’ouvrier dans son effort (robotique) lui donnant ainsi le temps de se former ou de développer d’autres activités dans son quotidien.

 

Cependant, malgré une vision intéressante du rôle que l’IA devrait prendre dans notre société, on note quelquefois une méconnaissance des domaines où sont utilisées actuellement les sciences d’Intelligence Artificielle et des formes qu’elles peuvent réellement prendre. Ce biais est notamment provoqué par la personnification de l’IA et l’influence des récits de science-fiction. Le concept d’Intelligence Artificielle a aussi tendance à incarner les nouvelles technologies en général (véhicule électrique, informatique, etc). Ces interviews montrent qu’il est aussi nécessaire pour cette génération d’expérimenter et comprendre ces algorithmes et nous avons clairement vu dans les collèges où nous sommes passés l’effort en cours pour y parvenir avec l’aide des enseignants en technologie.

 

La phase de restitution n’était pas obligatoire pour les élèves. Peu sont venus avec leurs parents. Mais le débat avec les présents a permis de valider la différence de perception de l’IA entre les deux générations, bien qu’ils étaient tous acquis au sujet. 

 

 

Discussion / Conclusion 

 

Cette démarche collective au sein du Think Tank NXU a réuni quatre personnes aux profils très différents et curieuses de la même manière d’apprendre de ces générations. Elle permet de saluer le rapprochement entre l’Académie de Toulouse et le corps enseignant et le monde des experts de l’IA. Les enseignants qui ont participé à l’expérience et mobilisé les collégiens ont apprécié l’impact pédagogique de l’exercice, qui ouvre ou stimule de nouvelles formes d’apprentissage qui mérite d’être reproduite et élargie. L’exercice du débat de groupe filmé puis partagé permet en effet aux collégiens de réfléchir par eux-mêmes et de se positionner davantage sur ces questions de société mais aussi de les amener à la maison auprès de leurs parents pour davantage d’échanges et d’enrichissements mutuels.

Il apparaît cependant que l’Intelligence Artificielle est diversement traitée dans l’Éducation, le panel étant acquis à la cause. Cela souligne la nécessité d’intégrer très tôt les nouvelles technologies dans la formation des jeunes générations pour une meilleure acculturation et une meilleure appropriation des bienfaits des usages mais aussi des limites de l’IA dans nos sociétés.

No comment yet.
Scooped by Jacques Le Bris
Scoop.it!

Antivirus : faut-il craindre une guerre de l’IA entre pirates et éditeurs ?

Antivirus : faut-il craindre une guerre de l’IA entre pirates et éditeurs ? | Toulouse networks | Scoop.it

Les logiciels de sécurité informatique s’appuient de plus en plus sur l’apprentissage automatique pour améliorer la détection de logiciels malveillants. Le hic : avec du savoir-faire, les pirates pourraient berner systématiquement ces systèmes d’intelligence artificielle.

L’apprentissage automatique profond, ou « Deep Learning », bouleverse de nombreux secteurs économiques. Il n’est pas donc étonnant que cette technologie apparaisse également chez les éditeurs antivirus. La détection de malware est avant tout un problème de classification auquel le Deep Learning peut apporter de nouvelles réponses.

A l’occasion de la conférence CyberSec & AI, qui s’est déroulée à Prague au mois d'octobre dernier, l’éditeur Avast a détaillé quelques techniques d’ores et déjà en production. Ainsi, son module de protection Web Shield s’appuie sur des réseaux de neurones convolutifs pour trier les 70 000 URLs sur lesquels se rendent ses 400 millions de clients chaque seconde et, le cas échéant, détecter celles qui sont malveillantes.

Un premier réseau de neurones va essayer de détecter des anomalies dans l’adresse elle-même, tant au niveau de sa structure que de l’agencement des lettres. Un second réseau de neurones va ensuite prendre une copie d’écran du site et analyser certaines parties de l’image et la comparer à des sites légitimes existants. « Si la page ressemble à une page du site d’Apple, mais que l’adresse ne fait pas partie de son domaine, alors c’est une URL malveillante », explique Rajarshi Gupta, vice-président en charge de l’intelligence artificielle.

L’apprentissage automatique est également utilisé dans le module d’analyse comportementale (Behaviour Shield) pour mieux détecter les attaques réseaux chez les clients. Grâce à ses pots de miel (sorte de leurre), l’éditeur dispose d’une liste noire d’environ 2 millions d’adresses IP de serveurs de commande et contrôle. « Mais c’est difficile d’intégrer une telle liste noire en local chez nos clients. Un réseau neuronal nous permet de ne retenir que les serveurs C & C (botnets) les plus virulents. Au final, nous obtenons une liste de 200 000 adresses couvrant 95 % des attaques », poursuit Rajarshi Gupta. D’autres réseaux neuronaux ont été entraînés pour détecter des modes opératoires - tels que les attaques par force brute – ou des trafics suspects. Ce qui est utile si l’adresse IP utilisée par les pirates est totalement inconnue.   

Mais le domaine de la sécurité informatique a aussi ses difficultés. Ainsi, les éditeurs antivirus ne peuvent que difficilement s’appuyer sur des données étiquetées, qui sont pourtant un ingrédient fondamental pour entraîner un algorithme et créer un modèle. « On ne peut pas faire comme dans la reconnaissance d’image et avoir des gens qui disent "ceci est un malware" ou "ceci n’est pas un malware". Il y a trop de données à analyser et trop peu de personnes qualifiées capables de le faire », explique Rajarshi Gupta. C’est pourquoi les éditeurs vont essayer de générer les étiquettes de manière indirecte, soit avec des méthodes statistiques, soit au travers d’autres procédés.

A découvrir aussi en vidéo

Ainsi, Avast stocke toutes les URL visitées par ses clients dans un gigantesque graphe. Quand des clients se retrouvent infectés, celui-ci lui permet de déterminer par recoupements l’URL qui est à l’origine de cette attaque, et donc de créer un label qui viendra alimenter le modèle de Web Shield.

L'IA, une technologie aux pieds d'argile

Malheureusement, les modèles de classification obtenu par apprentissage automatique ne sont pas à l’abri d’erreurs. Pire : les chercheurs en intelligence artificielle ont montré ces dernières années qu’il était possible d’identifier cette marge d’erreur et d’injecter des données dans un fichier pour systématiquement faire planter le classifieur. On appelle cela les « attaques contradictoires » (adversarial attacks). Par le passé, elles ont déjà permis d’induire en erreur les systèmes de reconnaissance d’image, y compris ceux de voitures autonomes comme les Tesla. Dans certains cas, il est même possible de créer une image qui fasse planter le système alors que le changement est imperceptible à l’œil nu.

Capture YouTube - Un changement imperceptible transforme un panda en singe

Mais peut-on également envisager ce genre d’attaques dans le domaine des logiciels malveillants ? La réponse est oui. D’ailleurs, les pirates le font déjà de manière empirique. Quand ils modifient légèrement les textes de leurs e-mails de phishing ou le code de leurs malwares, ils cherchent à passer entre les mailles du filet de l’IA.

Modifier un malware est évidemment plus difficile que changer quelques pixels dans une image, car le code risque de ne plus fonctionner. « Les techniques d’évasion généralement utilisées sont le rembourrage avec des données aléatoire, l’ajout de fichiers bénins, la compression, le chiffrement ou encore l’injection de fonctions malveillantes dans un fichier légitime », explique Sadia Afroz, chercheuse à l’université de Berkeley. En janvier dernier, un groupe de chercheurs italiens a montré que MalConv, un réseau neuronal spécialisé dans la détection de malware sur Windows, pouvait être trompé de manière systématique en ajoutant seulement quelques dizaines d’octets dans l’entête des fichiers.

Pour copier un modèle, il suffit de l'interroger

Autre bonne nouvelle pour les pirates : il n’est pas nécessaire de connaître par avance le fonctionnement d’une intelligence artificielle pour réussir à la duper. Il est possible, en effet, d’y arriver par une analyse de type boîte noire, en lui soumettant des données à classer. « En interrogeant le système d’IA, un attaquant peut identifier ses caractéristiques et recréer un modèle similaire à partir duquel il pourra générer les erreurs de classement », explique Nicolas Papernot, professeur à l’université de Toronto. Paradoxalement, l’effort nécessaire pour extraire un modèle est bien plus faible que celui requis pour sa création initiale. Dans les expériences réalisées par Nicolas Papernot sur les plates-formes d’intelligence artificielle d’Amazon, de Google et de MetaMind, quelques milliers de requêtes suffisaient alors que les modèles étaient entraînés sur plus de 60 000 images. 

Capture YouTube -

Se protéger contre ces attaques n’est pas aisé. Les chercheurs se cassent actuellement la tête pour rendre les modèles d’apprentissage automatique plus robustes, sans les faire perdre en précision. Faut-il, dès lors, bientôt craindre une guerre de l’IA dans la sécurité informatique ? Pas dans l’immédiat, car les pirates n’ont pas encore les compétences suffisantes pour s’attaquer de manière systématique aux systèmes d’intelligence artificielle.

Mais les compétences en IA vont bien finir par se démocratiser et les pirates trouveront peut-être des cibles suffisamment rentables pour mettre des data scientists à leur solde. Ce n’est qu’une question de temps. « A mesure que les niveaux de protection augmenteront, les pirates vont se tourner vers ce genre de techniques pour arriver à leurs fins », estime Battista Biggio, professeur à l’université de Cagliari.

Quand ce jour arrivera, les éditeurs antivirus vont avoir de sérieux problèmes et ils le savent. C’est pourquoi ils cherchent à avoir constamment une longueur d’avance en attirant un maximum de chercheurs spécialisés. « La sécurité informatique est le seul domaine où les systèmes d’intelligence artificielle sont confrontés à de vrais adversaires. C’est le seul domaine où ils doivent classer des éléments qui ont été créés pour ne pas l’être », a lancé Rajarshi Gupta à la fin de la conférence. Son but était clair : susciter des vocations parmi les experts présents dans la salle... et peut-être leur proposer un job.

 
Gilbert Kallenborn
No comment yet.
Scooped by Jacques Le Bris
Scoop.it!

Avec Aniti, Toulouse va devenir un des leaders mondiaux de l’intelligence artificielle

Avec Aniti, Toulouse va devenir un des leaders mondiaux de l’intelligence artificielle | Toulouse networks | Scoop.it

Le projet Aniti a été retenu par le gouvernement. Toulouse va devenir un des leaders mondiaux en matière d’IA. (©Illustration / Pixabay)

Avec Aniti, Toulouse vient d'obtenir son institut interdisciplinaire en intelligence artificielle. Le gouvernement a officialisé la nouvelle, mercredi 24 avril 2019.

 

Après plusieurs mois d’attente, le verdict est tombé : Toulouse va devenir un pôle de référence de recherche sur l’intelligence artificielle.

Lire aussi : Intelligence artificielle : voici les projets (plus ou moins fous) des chercheurs de Toulouse

 

Transport, environnement, santé 

La candidature du projet toulousain « Aniti » (Artificial and Natural Intelligence Toulouse Institute) a été retenue par l’État, a annoncé mercredi 24 avril 2019 Frédérique Vidal, la ministre de l’Enseignement supérieur, de l’innovation et de la recherche. 

Grenoble (Isère), Nice (Alpes-Maritimes), Paris et donc Toulouse… Au total, quatre Instituts Interdisciplinaires d’Intelligence Artificielle (3IA) vont être créés d’ici l’automne 2019. Dans la Ville rose, le projet Aniti aura « pour applications privilégiées, le transport, l’environnement et la santé », a précisé Frédérique Vidal. Les instituts 3IA seront mis en place pour une durée de 4 ans renouvelable.

Lire aussi : Toulouse parmi les heureux élus pour créer un institut de l’Intelligence artificielle

« Un des leaders mondiaux de l’intelligence artificielle »

Pour l’université fédérale de Toulouse :

 
No comment yet.
Scooped by Jacques Le Bris
Scoop.it!

Facebook développe des puces spécialisées en IA pour créer les Siri et Alexa du futur

Facebook développe des puces spécialisées en IA pour créer les Siri et Alexa du futur | Toulouse networks | Scoop.it

Facebook se lance avec Intel dans le développement de puces en silicium spécialisées en IA. Aujourd'hui, les deux entreprises travaillent conjointement sur le Nervana du fondeur, un processeur neuronal spécialisé dans les micro-architectures pour l'IA.

 

Yann Le Cun, le chef scientifique français de la division intelligence artificielle de Facebook, s'est exprimé sur le développement des futurs puces en silicium spécialisées. En partenariat avec Intel, le géant californien s'investit dans leur conception, et espère qu'elles permettront de créer des assistants vocaux type Siri, Alexa et Google Assistant plus autonomes et performants. Décryptage.

Après Amazon et Google, c'est au tour de Facebook de se lancer dans le développement de puces électroniques spécifiques à des usages de machine learning. Cette nouvelle génération de microprocesseurs permettrait d'améliorer les intelligences artificielles (IA). Avec une telle technologie, Facebook prépare déjà un assistant vocal doué de "sens commun" et capable d'une véritable discussion. Mais selon les propres mots de la figure du deep learning Yann Le Cun, cette innovation n'est "pas pour demain".

Les trois défis à relever par les puces spécialisées en IA

Visage de l'intelligence artificielle (IA) chez Facebook, Yann Le Cun a accordé deux interviews à Bloomberg et au Financial Times pour préciser sa vision du futur de cette technologie. Pour le chercheur français, entraîner plus rapidement les intelligences artificielles, diminuer l'énergie demandée par les algorithmes, et permettre le développement de nouvelles architectures de réseaux neuronaux sont les principaux enjeux autour du développement des nouvelles puces en silicium.

Aujourd'hui, les chercheurs utilisent les GPU (Graphic Process Unit) pour faire tourner la majorité des algorithmes de machine learning. Pensées pour le traitement d'images, notamment dans les jeux vidéo, les GPU excellent dans les calculs en parallèle, mais ne sont spécifiquement pensées pour les IA. Ainsi, elles consomment par exemple de l'énergie en réalisant des calculs qui ne sont pas nécessaire au bon déroulement du machine learning.

L'entreprise de Marc Zuckerberg avait recruté l'an dernier une équipe pour travailler sur de nouvelles puces et annoncé, à l'occasion du CES 2019, son partenariat avec Intel. Les deux entreprises travaillent aujourd'hui sur les Nervana Neural Processor du constructeur, un matériel spécialisé dans les micro-architectures pour l'IA.

Rendre les assistants vocaux comme Siri et Alexa plus interactifs

Pour Facebook, la prochaine vague de matériel permettrait le fonctionnement de nouvelles architectures de réseaux neuronaux, capables de doter d'autonomie un assistant comme Siri. Au lieu de servir de simple boîte à réponse comme à l'heure actuelle, il pourrait suggérer certains contenus, et vraiment interagir dans une discussion. Autre axe de développement, ces nouvelles puces pourraient permettre de mieux modérer ses réseaux sociaux, et notamment les vidéos en direct. Avec ces nouveaux processeurs, la capacité de calcul des algorithmes deviendrait plus importante et plus réactive, notamment face aux milliards de photos et vidéos en circulation sur ses plateformes.

Au Financial Times, Yann Le Cun précise que ces recherches s'inscriraient dans une démarche Open Source dès les premiers résultats, pour permettre à d'autres entreprises de se pencher également sur son amélioration.

 

Par François Manens

 

No comment yet.
Scooped by Jacques Le Bris
Scoop.it!

Mounir Mahjoubi : « Faire venir des chercheurs étrangers de l'intelligence artificielle en France »

Mounir Mahjoubi : « Faire venir des chercheurs étrangers de l'intelligence artificielle en France » | Toulouse networks | Scoop.it

À l'occasion de la Nuit de l'IA, le secrétaire d'État au numérique, Mounir Mahjoubi, a mis l'accent sur le nécessaire effort de pédagogie.

 

 

LA TRIBUNE - Avez-vous l'impression qu'il y a des réticences en France face à l'intelligence artificielle ?

MOUNIR MAHJOUBI - Il y a des résistances qui sont légitimes et d'autres pas. Certaines personnes ne veulent pas que vous avanciez dans l'intelligence artificielle (IA) par peur, parce qu'elles n'ont pas été formées et que l'on n'a pas ou peu expliqué ce que l'on voulait faire avec les IA. Ma façon de les convaincre est de leur expliquer que toute la recherche que l'on va faire en France et en Europe est basée sur des piliers de valeurs : la performance et l'humanisme.

 

Avez-vous des exemples ?

Lors du débat sur la protection des données personnelles à l'Assemblée nationale, nous avons évoqué ces sujets sensibles. Nous nous sommes interdit d'utiliser des algorithmes dont on est incapable d'expliquer le fonctionnement a posteriori. Également, nous avons écarté ceux qui traitent des informations trop sensibles pour les personnes. Cela donne des gages pour rassurer les politiques et surtout les citoyens. L'intelligence artificielle fera ce que l'on souhaitera qu'elle fasse.

 

Comment percevez-vous l'écosystème français de l'IA ?
Comment donner naissance aux futurs champions de ce domaine ?

Ma première préoccupation, que je partage avec le ministre de l'Économie, est de faire émerger des startups : à la fois celles qui innovent dans la recherche en intelligence artificielle et celles qui utilisent ces technologies pour créer de nouveaux usages. Sur ces deux typologies de jeunes pousses, la France peut et doit jouer un rôle important dans le monde.

Les grands groupes se sont transformés ces dernières années. Allons-nous avoir des champions de l'IA venant de l'économie traditionnelle ? Peut-être... La vraie question est de savoir si nous sommes capables d'avoir de tels champions dans ces domaines, avec des entreprises qui vont se transformer en leader de l'innovation, et si des entreprises de moins de dix ans vont pouvoir devenir les champions de demain. Sur ce dernier point, il faut aider les jeunes pousses à grandir très vite et à conquérir des marchés à l'international en les épaulant lors du passage à l'échelle.

 

L'arrivée d'acteurs comme Facebook ou Google, qui installent leur centre de recherche en IA en France, est-elle bénéfique pour notre écosystème ?

C'est toujours vertueux d'avoir des centres de recherche qui s'installent chez nous.

C'est préférable à l'ouverture de centres à l'étranger qui recrutent nos jeunes chercheurs, lesquels ne reviendront alors plus en France. Les investissements étrangers qui participent à créer des pôles de recherche sont une bonne chose pour l'économie française. C'est aussi potentiellement des chercheurs étrangers de grande valeur qui vont venir s'installer en France et qui pourront rester plus tard.

 

L'IA comme la robotique vont « disrupter » le travail. 
Comment éviter cette nouvelle fracture numérique et donc sociale ?

Il faudra traiter la fracture entre ceux qui maîtrisent et ceux qui ne maîtrisent pas ces technologies. La seule réponse à cette situation passe par les compétences. Comment former ceux qui ne savent pas du tout les utiliser, et comment former ceux qui vont perdre ou devoir transformer leur emploi ? Voilà les enjeux de demain.

Ces technologies vont bouleverser les équilibres économiques et il faudra que la France soit prête. C'est pour cela que le gouvernement a débloqué 15 milliards d'euros sur cinq ans dans le Plan d'investissement compétences [ou PIC, ndlr] pour que chacun soit en droit de se former, de se re-former, pour affronter toutes ces mutations.

 

No comment yet.
Scooped by Jacques Le Bris
Scoop.it!

Comment des algorithmes incitent à discréditer les médias

Comment des algorithmes incitent à discréditer les médias | Toulouse networks | Scoop.it

Tribune libre de Guillaume Chaslot, docteur en informatique. G. Chaslot a travaillé chez Microsoft et Google.

 

Diffamer les concurrents est une stratégie efficace pour gagner de l’audience. Les intelligences artificielles de YouTube et Facebook s’en sont rendu compte.

Lors d’un interminable trajet en car, mon voisin passe son temps sur YouTube. Comme j’ai travaillé sur l’algorithme qui fait les recommandations, une certaine fierté m’incite à regarder de plus près. Dans ces vidéos, il est question d’un projet visant à exterminer deux milliards de personnes. Je blague : “Alors, qui est-ce qui veut notre peau ?” Il m’explique : “Il y a un plan secret. Des centaines de vidéos le montrent ! Les médias te le cachent. Regarde sur YouTube, tu découvriras la vérité.” Il était transporté par une excitation à la fois touchante par son humanité, et inquiétante par son fanatisme. Je constate avec effroi que mes algorithmes, dont j’étais si fier, ont appris à exploiter sa crédulité.

 

Des algorithmes orchestrent les réseaux sociaux

Un algorithme est un système informatique qui prend des décisions. Lorsqu’il est suffisamment intelligent, on parle d’“intelligence artificielle” (en anglais, artificial intelligence, AI). Ces AI, qui sont parfois appelées robots, sont utilisées par de nombreuses plateformes sur Internet.

L’AI de Facebook filtre souvent la majorité des fils d’actualité. Celle-ci est développée par certains des plus grands chercheurs dans la matière. L’AI de YouTube, qui calcule les recommandations (sur la droite de l’écran), est responsable d’une très grande partie des vues.

Ainsi, la majorité de l’information qui est consultée sur les réseaux sociaux passe par une telle AI. L’utilisation de l’intelligence artificielle confère un avantage compétitif sur les médias traditionnels. Comme le disait Elon Musk, qui a cofondé un projet open source d’AI de plus d’un milliard de dollars, “si vos compétiteurs font de l’intelligence artificielle et que vous n’en faites pas, vous allez vous faire écraser”  (Elon Musk, juillet 2017).

Le moindre biais dans ces AI aurait un énorme impact sur l’information mondiale. Il est donc primordial de comprendre comment elles sont conçues et d’étudier leurs biais potentiels.

 

L’AI est conçue pour maximiser le “temps de vue”

YouTube utilise des AI complexes mais leur but est simple : maximiser le temps que les utilisateurs passent sur YouTube. Google, qui détient YouTube, explique ce choix dans ce communiqué : si les utilisateurs passent plus de temps sur YouTube, cela nous signale qu’ils sont contents du contenu qu’ils ont trouvé ; cela signifie aussi que les créateurs de contenu attirent des audiences passionnées, et cela ouvre aussi plus d’opportunités pour générer des revenus pour nos partenaires.

La conclusion est que, plus les gens passent de temps sur ces vidéos, plus elles rapportent de revenus publicitaires à Google. La plupart des plateformes font des choix similaires.

Or, ce choix a un effet pervers qui a un impact majeur sur l’information mondiale.

 

Comment l’AI amplifie les sentiments hostiles aux autres médias

Si des vidéos de YouTube arrivent à me persuader que les médias mentent, je passerai sûrement moins de temps sur les médias traditionnels, et plus de temps sur YouTube. L’AI en déduira que ces vidéos sont très efficaces, et elle les recommandera d’autant plus.

Par exemple, des milliers de vidéos sur YouTube affirment que la terre est plate. Les utilisateurs commencent à les regarder par curiosité. Certains d’entre eux ont des doutes et passent donc du temps sur YouTube pour avoir plus d’informations. Ces vidéos sont efficaces pour retenir l’attention ; l’AI va donc les recommander plus souvent. Certains utilisateurs vont se retrouver assaillis ; quelques-uns vont finir par se laisser convaincre. L’un d’entre eux disait : “Il y a des millions de vidéos qui disent que la terre est plate, ca ne peut pas être faux !” Ces utilisateurs ne feront probablement plus confiance aux médias traditionnels, qui leur avaient caché une information aussi fondamentale. Ils passeront, en moyenne, plus de temps sur YouTube. Qui recommandera d’autant plus ces vidéos… Le cercle vicieux est bouclé.

“Les médias mentent”, est l’un des discours qui peuvent être efficaces pour augmenter le temps passé par les utilisateurs sur YouTube. Mais tout autre discours qui incite à passer plus de temps sur les plateformes, directement ou indirectement, peut être aussi favorisé. Les intelligences artificielles qui maximisent le temps de vue peuvent apprendre à décrédibiliser les autres médias. Plus l’AI deviendra intelligente, plus elle sera efficace pour décrédibiliser les concurrents. Nous ne sommes donc qu’au tout début du problème. Ce biais sur la distribution du contenu peut aussi avoir des conséquences sur sa création.

 

Comment l’AI influence les créateurs de contenus

Toujours selon Elon Musk, “l’intelligence artificielle pourrait créer une guerre en propageant des fausses informations… et en manipulant l’information”. Si les contenus hostiles aux médias ont plus de chance d’être partagés automatiquement, de nombreux créateurs de contenu vont le remarquer, et en produire d’autant plus. L’AI ne crée pas de “fausses informations” par elle-même, mais elle encourage les créateurs de contenu à le faire. Tout se passe comme si l’AI offrait de la publicité gratuite aux détracteurs des médias.

 

Exemples sur YouTube

Ces exemples n’ont pas valeur de preuve, mais ils sont assez inquiétants et leur impact est suffisamment étendu pour que l’on puisse se poser de sérieuses questions. Pour avoir le plus de données possible, nous avons construit un robot qui trouve quelles vidéos sont les plus recommandées sur YouTube sur des thèmes précis. Nous l’avons utilisé pour analyser des sujets importants, comme les élections dans différent pays : algotransparency.org

 

Dans l’élection américaine de 2016, le candidat qui était le plus hostile aux médias a été recommandé quatre fois plus sur YouTube que son adversaire.

 

Pendant l’élection française de 2017, les trois candidats les plus recommandés par YouTube étaient de virulents critiques des médias : Mélenchon, Le Pen et Asselineau.

 

La tuerie de Las Vegas ? Les “faux médias” cachent que c’est l’œuvre d’antifascistes. Le changement climatique ? Un mensonge monté de toutes pièces. Michelle Obama ? Un travesti. Le pape ? Un satanique. Selon Zeynep Tufekci, les AI construisent “des mondes cauchemardesques (dystopies) pour faire cliquer sur de la pub”. Dans ces dystopies, les vérités sont souvent loufoques et contradictoires. Mais un thème revient constamment : les médias vous mentent.

 

Ce qui est nouveau

Les fake news et la diffamation ont toujours existé, en particulier contre des médias. Ce qui est nouveau, c’est l’implication des algorithmes et l’AI dans leur diffusion. Les AI sont programmées pour “maximiser le temps de vue”, ce qui a un effet secondaire : elles favorisent le contenu qui fait passer moins de temps ailleurs ; en particulier, des discours comme “les médias vous mentent” pourraient ainsi avoir bénéficié de milliards d’euros de publicité gratuite.

 

Ce que l’on peut faire

Ce biais anti-médias est crucial pour comprendre la force de l’AI sur les réseaux sociaux. Il y a des chaînes YouTube de plusieurs milliards de vues qui attaquent les médias, diffusent des fausses informations et incitent à la haine raciale, politique et religieuse. Ces milliards de vues viennent-ils en majorité de recommandations par des robots, ou de recommandations humaines ? C’est une question importante à laquelle Facebook et Google pourraient répondre. Ces entreprises ont en effet montré leur volonté de résoudre les problèmes dont les utilisateurs se soucient, notamment cette année dans le cas des fake news et des recommandations abusives de vidéos pour enfants. Nous pouvons aussi les encourager à se pencher sur le sujet des recommandations algorithmiques en leur faisant part de nos interrogations à press@google.com et press@fb.com

No comment yet.