eric vautier Relecteur 1 Let me share a paradoxe. Depuis les 10 dernières années, beaucoup de entreprises ont essayé de devenir moins bureaucratiques, d'avoir moins de règles et de procédures centrales, d'avoir plus d'autonomie pour leurs équipes locales, d'être plus agiles. Et maintenant, elles poussent l'intelligence artificielle. l'AI, à l'esprit que les technologies cool pourraient les rendre plus bureaucratiques que jamais.
Pourquoi ? Parce que l'AI opère juste comme les bureaucraties. L'essence des bureaucraties est d'améliorer les règles et les procédures des jugements humains.
Et AI décide seulement en fonction des règles. Beaucoup de règles sont inférées par les données passées, mais seulement les règles. Et si le jugement humain n'est pas gardé dans le loop, AI apporte une forme terrifiante de nouvelle bureaucratie.
Je l'appelle l'algocratie, où AI prend de plus en plus de décisions critiques et déployer des rôles à l'extérieur de tout contrôle humain. Est-ce qu'il y a un vrai risque ? Oui.
Je m'occupe d'une équipe de 800 spécialistes en AI. Nous avons déployé plus de 100 solutions AI customisées pour de grandes entreprises dans le monde entier. Et je vois trop d'exécutifs corporate qui se comportent comme des bureaucrates du passé.
Ils veulent élever des humains d'une façon costaud, de l'autre côté du fil et se confier uniquement à... et que l'on doit se battre contre l'AI pour prendre des décisions. Je l'appelle le mindset de zéro humain.
Et pourquoi est-ce si effrayant ? Parce que l'autre route, l'AI plus humain, est longue, coûteuse et difficile. Les équipes de business, de technologie, de data science doivent étirer pendant des mois pour créer exactement la manière dont les humains et l'IA peuvent travailler ensemble au mieux.
Long, coûteux et difficile, mais le récompenseur est énorme. Un récent survey de BCG et MIT montre que 18% des entreprises du monde sont pionnières. en utilisant l'AI, en en faisant de l'argent avec elle. Ces entreprises concentrent 80 de leurs initiatives sur l'efficacité et le développement, en prenant des décisions meilleures, et non en remplissant les humains avec l'AI pour réduire les coûts. Pourquoi est-il important de garder les humains dans le fil ?
Simplement parce que, en se laissant, l'AI peut faire des choses très dures. Des fois, sans conséquences, comme dans ce tweet. Chère Amazon, J'ai acheté des assiettes à toilettes, nécessité, pas désir. Je ne les collecte pas, je ne suis pas un addict à assiettes à toilettes.
Peu importe comment têtement vous m'envoiez un email, je ne vais pas penser à faire une autre assiette à toilettes, je vais m'en occuper. Parfois, avec plus de conséquences, comme dans ce tweet. J'ai eu la même situation avec ma mère, Buriel Earn. Il y a quelques mois après sa mort, j'ai reçu des messages d'Amazon qui disaient, si vous aimez ça...
...sometimes with worse consequences. Take an AI engine rejecting a student application for university. Why ? Because it has learned on past data characteristics of students that will pass and fail.
Some are... comme le GPS. Mais si dans le passé, tous les élèves de un code postal dépassé ont été éliminés, c'est très probable que l'IA fasse ceci un règlement et que chaque élève de ce code postal sera rejeté. en donnant à tout le monde l'opportunité de prouver la règle.
Et personne ne peut vérifier toutes les règles, parce que l'intelligence générale avancée apprend constamment. Et si les humains sont élevés de la chambre, il y a le malheur algocratique. Qui est responsable de l'éjection des élèves ? Personne.
L'intelligence générale l'a fait. C'est vrai ? Oui. Les mêmes règles objectives ont été appliquées à tous. Pouvons-nous ré-consider pour ce jeune homme ?
avec le mot poste faux ? Non, les algos ne changent pas de tête. Nous avons une choix ici. Passer avec l'algocratie ou décider d'aller vers l'AI humain ? Et pour faire ça, nous devons arrêter de penser en tech.
Et nous devons commencer à appliquer la formule secrète. Pour déployer l'AI humain, 10 de l'effort est de coder des algos. 20 pour construire des technologies autour des algos, collecter des données, construire des I.I. et s'intégrer dans un système de légation.
Mais 70 le grand nombre de l'effort, est de construire l'AI avec les gens et les processus pour maximiser les résultats réels. L'AI s'effondre quand on s'éloigne de 70 Le prix pour cela peut être petit, en vêtant de millions de dollars sur des technologies inutiles. Qui s'en fiche ?
Ou des tragédies réelles ? 346 casuels dans les récents crashs de deux avions B737 quand les pilotes ne pouvaient pas interagir correctement avec un système de commande computerisé. Pour un 70 de réussite, le premier pas est de s'assurer que les algos soient codés par des scientifiques de données et des experts de domaine ensemble.
Prenons la santé, par exemple. Une de notre équipe a travaillé sur une nouvelle drogue, avec... C'est un petit problème. Quand on prend sa première dose, très peu de patients ont des attaques cardiaques.
Donc, tous les patients, quand ils prennent leur première dose, doivent passer un jour à l'hôpital, pour se faire un petit test. Notre objectif était d'identifier les patients qui n'avaient pas de risque de l'attaque cardiaque, qui pourraient passer le jour à l'hôpital. Nous utilisons l'IA pour analyser les données des tests cliniques. Pour corrélater les marques biomarquantes de la composition de sang de signal ECG avec le risque d'une attaque du cœur, en un mois, notre modèle pourrait afficher 62 des patients à zéro risque. Ils pourraient passer le jour à l'hôpital.
Vous seriez-vous à l'aise en restant à la maison pour votre première dose, si l'alcool disait que c'est le cas ? Les médecins ne l'étaient pas. Qu'avons-nous si nous avions un négatif faux ? C'est-à-dire que les gens qui sont dit par l'IA qu'ils peuvent rester à la maison et mourir.
Ils ont commencé à 70 Nous avons travaillé avec un équipe de médecins pour vérifier la logique médicale de chaque variable dans notre modèle. Par exemple, nous utilisions la concentration d'un enzyme du ventre comme prédicteur, pour lequel la logique médicale n'était pas évidente. Le signal statistique était assez fort. Mais qu'est-ce si c'était un bias dans notre sample ?
Ce prédicteur a été élevé du modèle. Nous avons aussi utilisé des prédicteurs pour lesquels les experts nous ont dit qu'ils ne pouvaient pas être régulièrement mesurés par des médecins en réalité. Après quatre mois, nous avons eu un modèle et un protocole médical.
Ils ont été tous approuvés par les autorités médicales aux États-Unis l'an dernier, résultant en moins de stress pour la moitié des patients et une meilleure qualité de vie. Et on a attendu, à l'extérieur, plus de 100 millions de cellules pour ce drogue. 70 de l'AI avec des équipements et des processus signifient aussi la construction d'interfaces puissants.
et l'intelligence de l'IA pour résoudre les plus difficiles problèmes ensemble. Une fois, nous avons été déçus par un vendeur de mode. Nous avons les meilleurs acheteurs du monde. Pouvez-vous construire un moteur d'intelligence qui les battrait en fournissant des ventes ?
En nous disant combien de chaussures de haut niveau, de l'air blanc, de l'air noir, de l'air noir, de l'air noir, nous devrions les acheter pour l'année prochaine ? En nous prédisant mieux ce qu'on vend ou non que nos designers ? Notre équipe a entraîné le modèle dans quelques semaines sur les données de vente précédentes, et la compétition a été organisée avec des acheteurs humains. Résultat ?
AI gagne, réduisant les erreurs de forecaste à 25 Les champions de la 0H ont pu essayer d'implémenter ce modèle initial et créer une lutte avec tous les acheteurs humains. Faire plaisir. Mais nous savions que les acheteurs humains avaient des insights sur les trends de la mode qui pourraient être utilisés ne pouvait pas être trouvée dans les données précédentes. C'est là que nous avons commencé notre 70 Nous avons pris un deuxième test où les acheteurs humains ont étudié les quantités suggérées par l'IA et ont pu les corriger si besoin.
Résultat ? Les humains utilisant l'IA perdent ! 75 des corrections faites par les humains réduisent l'accuracité.
C'était le moment de se faire enlever des acheteurs humains. Non, c'était le moment de recréer un modèle où les humains n'essaient pas de compter quand l'AI est en train de se débrouiller. Nous avons complètement ré-arrêté le modèle et nous sommes allés de notre interface initiale, qui était plus ou moins Hey, humain, c'est ce que je prévois, correcte ce que tu veux et nous sommes allés à un plus riche modèle, plus comme Hey, humains, je ne connais pas les trends pour l'année prochaine, pouvez-vous me partager vos meilleurs buts créatifs ?
Hey, humains, pouvez-vous m'aider à quantifier ces deux gros objets ? Je ne trouve pas de comparables de qualité dans le passé pour eux. Résultat ?
Human plus AI gagne, réduisant les erreurs de forecast à 50 Il a fallu un an pour finaliser l'outil. Long, coûtant et difficile. Mais les profits et les bénéfices sont au-dessus de 100 millions de salaires par an pour ce rétaleur. 70% sur des sujets très sensibles signifient aussi que les humains doivent décider de ce qui est vrai ou faux et définir des règles pour ce que l'AI peut faire ou non.
Comme mettre des capes sur les prix pour prévenir l'engin de la prix. pour charger de très hauts prix aux clients inéducés qui les accepteraient. Seuls les humains peuvent définir ces frontières. Il n'y a pas de façon pour l'IA de les trouver dans les données passées.
Certaines situations sont dans la zone grise. Nous avons travaillé avec un insurant de santé. Il a développé une engine de l'IA pour identifier, parmi ses clients, des personnes qui sont en train d'aller au hôpital pour leur vendre des services premium.
Le problème est... Certains prospects ont été appelés par le comité commercial, alors qu'ils ne savaient pas encore qu'ils devraient aller au hôpital très bientôt. Vous êtes le CEO de cette entreprise. Vous arrêtez ce programme ?
Ce n'est pas une question facile. Et pour résoudre cette question, certaines entreprises sont en train de construire des équipes, de définir des règles et des standards éthiques pour aider les équipes de business et de tech à mettre des limites entre la personnalisation et la manipulation, la customisation des offres et la discrimination, le target et l'intrusion. Je suis convaincu que dans toutes les entreprises, l'application de l'IA, où ça vraiment m'intéresse, a un réel réparation. Les leaders de l'entreprise doivent être baisers et sélectionner quelques sujets, et pour chacun de ceux-là, mobiliser...
10, 20, 30 personnes de leurs meilleurs équipes, de la technologie, de l'IA, de la science des données, de l'éthique, et de passer le cycle de 10, 20, 70 de l'IA humaine si elles veulent effectivement lancer l'IA. dans leurs équipes et leurs processus. Il n'y a pas d'autre façon. Les citoyens dans l'économie développée ont déjà peur de l'algocratie. 7 000 personnes ont été interviewées dans un récent survey.
Plus de 75 ont exprimé des vraies inquiétudes sur l'impact de l'IA sur le travail, sur la privacité, sur le risque d'une société déhumanisée. Pousser l'algocratie crée un vrai risque de backlash sévère contre l'IA. Dans les entreprises ou dans la société en large, Human plus AI est notre seule option pour apporter les bénéfices de l'AI au monde entier. Et au final, une organisation gagnante investira dans le savoir humain, pas seulement dans l'AI et les données.
Recrutement, entraînement, remise aux experts humains. Les données sont dit être le nouveau huile. Mais croyez-moi, le savoir humain fera la différence, car c'est le seul déricé disponible pour imprimer l'huile cachée dans les données.
Merci.