Informations

Peut-on utiliser l'intelligence artificielle en droit ?

Peut-on utiliser l'intelligence artificielle en droit ?

Je viens d'Inde, il y a plus de 3 millions d'affaires en instance dans différents tribunaux indiens, ce qui est presque impossible à résoudre dans un laps de temps limité… à moins que nous utilisions un robot au lieu d'une personne. Je sais que cela n'a aucun sens, mais est-ce possible de créer une intelligence artificielle qui puisse considérer tous les aspects du droit et rendre justice à tous les cas en tant qu'humain ?


Les enjeux éthiques et juridiques de l'intelligence artificielle

L'éthique et le droit sont inextricablement liés dans la société moderne, et de nombreuses décisions juridiques découlent de l'interprétation de diverses questions éthiques. L'intelligence artificielle ajoute une nouvelle dimension à ces questions. Les systèmes qui utilisent les technologies de l'intelligence artificielle deviennent de plus en plus autonomes en termes de complexité des tâches qu'ils peuvent effectuer, de leur impact potentiel sur le monde et de la capacité décroissante des humains à comprendre, prévoir et contrôler leur fonctionnement. La plupart des gens sous-estiment le niveau réel d'automatisation de ces systèmes, qui ont la capacité d'apprendre de leur propre expérience et d'effectuer des actions au-delà de la portée de celles prévues par leurs créateurs. Cela entraîne un certain nombre de difficultés éthiques et juridiques que nous aborderons dans cet article.

Éthique et Intelligence Artificielle

Il existe une expérience de pensée bien connue en éthique appelée le problème du chariot. L'expérience soulève un certain nombre de questions éthiques importantes qui sont directement liées à l'intelligence artificielle. Imaginez un chariot en fuite descendant les voies ferrées. Il y a cinq personnes attachées à la piste devant. Vous êtes debout à côté d'un levier. Si vous le tirez, le chariot passera à un autre ensemble de rails. Cependant, il y a une autre personne liée à cet ensemble de pistes. Tirez-vous le levier ou pas ?

Il n'y a pas de réponse claire à cette question. De plus, il existe de nombreuses situations dans lesquelles une telle décision peut devoir être prise [1]. Et différents groupes sociaux ont tendance à donner des réponses différentes. Par exemple, les moines bouddhistes sont massivement disposés à sacrifier la vie d'une personne pour en sauver cinq, même s'ils sont confrontés à une variante plus compliquée du problème du chariot.

Quant à l'intelligence artificielle, une telle situation pourrait se produire, par exemple, si un véhicule autonome circule sur une route dans une situation où un accident est inévitable. La question se pose alors de savoir à qui la vie doit avoir la priorité – celle des passagers, des piétons ou ni l'un ni l'autre. Un site Web spécial a été créé par le Massachusetts Institute of Technology qui traite précisément de cette question : les utilisateurs peuvent tester différents scénarios sur eux-mêmes et décider quelles pistes d'action seraient les plus intéressantes.

D'autres questions se posent également dans cette affaire : Quelles actions peuvent être autorisées du point de vue juridique ? Qu'est-ce qui devrait servir de base à de telles décisions? Qui doit être tenu pour responsable en dernier ressort ? Ce problème a déjà été traité par les entreprises et les régulateurs. Des représentants de Mercedes, par exemple, ont déclaré catégoriquement que leurs voitures donneraient la priorité à la vie des passagers. Le ministère fédéral allemand des Transports et de l'Infrastructure numérique a immédiatement réagi, anticipant une future réglementation en déclarant qu'un tel choix basé sur un ensemble de critères serait illégal et que le constructeur automobile serait tenu responsable de toute blessure ou perte de vie. .

D'autres pays peuvent emprunter une voie différente. Prenez le système chinois de crédit social, par exemple, qui évalue ses citoyens en fonction de leur respect des lois et de leur utilité pour la société, etc. Ceux qui ont de faibles notes seront passibles de sanctions. Qu'est-ce qui empêche le gouvernement chinois d'introduire une loi qui oblige les constructeurs de véhicules autonomes à sacrifier la vie des citoyens les moins bien notés en cas d'accident inévitable ? Les technologies de reconnaissance faciale et l'accès aux bases de données pertinentes permettent parfaitement d'identifier les victimes potentielles et de comparer leurs cotes de crédit social.

Les principaux problèmes auxquels la loi est confrontée

Les problèmes juridiques sont encore plus profonds, en particulier dans le cas des robots. Un système qui apprend des informations qu'il reçoit du monde extérieur peut agir d'une manière que ses créateurs n'auraient pas pu prévoir [2], et la prévisibilité est cruciale pour les approches juridiques modernes. De plus, de tels systèmes peuvent fonctionner indépendamment de leurs créateurs ou opérateurs, compliquant ainsi la tâche de déterminer la responsabilité. Ces caractéristiques posent des problèmes liés à la prévisibilité et à la capacité d'agir de manière indépendante tout en n'étant pas tenu pour responsable [3].

Il existe de nombreuses options en termes de réglementation, y compris une réglementation basée sur les normes et standards existants. Par exemple, les technologies qui utilisent l'intelligence artificielle peuvent être réglementées en tant qu'éléments soumis au droit d'auteur ou en tant que propriété. Des difficultés surgissent ici, cependant, si l'on prend en compte la capacité de telles technologies à agir de manière autonome, contre la volonté de leurs créateurs, propriétaires ou propriétaires. À cet égard, il est possible d'appliquer les règles qui régissent un type particulier de propriété, à savoir les animaux, puisque ces derniers sont également capables d'actions autonomes. En droit russe, les règles générales de propriété s'appliquent aux animaux (article 137 du Code civil de la Fédération de Russie) la question de la responsabilité relève donc de l'article 1064 du Code civil de la Fédération de Russie : atteinte à la personnalité ou la propriété d'un individu fait l'objet d'une indemnisation intégrale par la personne qui a infligé le dommage.

Des propositions sur l'application de la loi sur les animaux ont été faites [4], bien qu'elles soient quelque peu limitées. Premièrement, l'application de la législation sur la base de l'analogie est inacceptable dans le cadre du droit pénal. Deuxièmement, ces lois ont été créées principalement pour les animaux domestiques, dont on peut raisonnablement s'attendre à ce qu'ils ne causent pas de dommages dans des circonstances normales. Il y a eu des appels dans les systèmes juridiques plus développés à appliquer des règles similaires à celles qui réglementent la détention d'animaux sauvages, car les règles régissant les animaux sauvages sont plus strictes [5]. La question se pose cependant ici de savoir comment faire une distinction au regard des spécificités de l'intelligence artificielle évoquées plus haut. De plus, des règles strictes peuvent en fait ralentir l'introduction des technologies d'intelligence artificielle en raison des risques inattendus de responsabilité pour les créateurs et les inventeurs.

Une autre suggestion répandue consiste à appliquer des normes similaires à celles qui régissent les activités des personnes morales [6]. Puisqu'une personne morale est un sujet de droit artificiellement construit [7], les robots peuvent se voir attribuer un statut similaire. La loi peut être suffisamment souple et accorder des droits à à peu près n'importe qui. Il peut également restreindre les droits. Par exemple, historiquement, les esclaves n'avaient pratiquement aucun droit et étaient en fait une propriété. La situation inverse peut également être observée, dans laquelle les objets qui ne démontrent aucun signe explicite de la capacité de faire quoi que ce soit sont investis de droits. Aujourd'hui encore, il existe des exemples d'objets inhabituels qui sont reconnus en tant qu'entités juridiques, tant dans les pays développés que dans les pays en développement. En 2017, une loi a été adoptée en Nouvelle-Zélande reconnaissant le statut de la rivière Whanganui en tant qu'entité juridique. La loi stipule que le fleuve est une personne morale et, à ce titre, a tous les droits, pouvoirs et obligations d'une personne morale. La loi a ainsi transformé le fleuve d'une possession ou d'une propriété en une entité juridique, ce qui a élargi les limites de ce qui peut être considéré comme une propriété et de ce qui ne l'est pas. En 2000, la Cour suprême de l'Inde a reconnu le principal texte sacré des Sikhs, le Guru Granth Sahib, en tant qu'entité juridique.

Même si l'on ne considère pas les cas les plus extrêmes et que l'on cite en exemple les sociétés ordinaires, on peut dire que certains systèmes juridiques engagent la responsabilité civile et, dans certains cas, pénale des personnes morales [8]. Sans déterminer si une entreprise (ou un État) peut avoir le libre arbitre ou l'intention, ou si elle peut agir délibérément ou en connaissance de cause, elle peut être reconnue légalement responsable de certains actes. De la même manière, il n'est pas nécessaire d'attribuer une intention ou un libre arbitre aux robots pour les reconnaître comme responsables de leurs actes.

L'analogie des entités juridiques est cependant problématique, car le concept d'entité juridique est nécessaire pour rendre la justice d'une manière rapide et efficace. Mais les actions des personnes morales remontent toujours à celles d'une seule personne ou d'un groupe de personnes, même s'il est impossible de déterminer exactement qui elles sont [9]. En d'autres termes, la responsabilité juridique des entreprises et entités assimilées est liée aux actes accomplis par leurs salariés ou représentants. De plus, les personnes morales ne sont réputées pénalement responsables que si un individu effectuant l'action illégale au nom de la personne morale est identifié [10]. Les actions des systèmes basés sur l'intelligence artificielle ne seront pas nécessairement liées aux actions d'un individu.

Enfin, les normes juridiques sur les sources de danger accru peuvent être appliquées aux systèmes basés sur l'intelligence artificielle. Conformément au paragraphe 1 de l'article 1079 du Code civil de la Fédération de Russie A, les personnes morales et les personnes physiques dont les activités sont associées à un danger accru pour la population environnante (utilisation de véhicules de transport, mécanismes, etc.) sont tenues de réparer le dommage causé par la source du danger accru, à moins qu'ils ne prouvent que le dommage a été infligé en raison de circonstances de force majeure ou de l'intention de la personne lésée. Le problème est d'identifier quels systèmes d'intelligence artificielle peuvent être considérés comme des sources de danger accru. La problématique est similaire à celle évoquée ci-dessus concernant les animaux domestiques et sauvages.

Réglementation nationale et internationale

De nombreux pays créent activement les conditions juridiques pour le développement de technologies utilisant l'intelligence artificielle. Par exemple, la « loi de promotion du développement et de la diffusion de robots intelligents » est en vigueur en Corée du Sud depuis 2008. La loi vise à améliorer la qualité de vie et à développer l'économie à travers la création et la promotion d'une stratégie pour le développement durable de l'industrie des robots intelligents. Tous les cinq ans, le gouvernement élabore un plan de base pour s'assurer que ces objectifs sont atteints.

Je voudrais ici porter une attention particulière à deux exemples récents : la France, qui a déclaré son ambition de devenir un leader européen et mondial de l'intelligence artificielle et l'Union européenne, qui a proposé des règles avancées pour la régulation des robots intelligents.

Fin mars 2018, le président français Emmanuel Macron a présenté la nouvelle stratégie nationale d'intelligence artificielle du pays, qui consiste à investir 1,5 milliard d'euros sur les cinq prochaines années pour soutenir la recherche et l'innovation dans le domaine. La stratégie s'appuie sur les recommandations formulées dans le rapport établi sous la direction du mathématicien français et député à l'Assemblée nationale Cédric Villani. Il a été décidé que la stratégie visait quatre secteurs spécifiques : la santé les transports l'environnement et la protection et la sécurité de l'environnement. Le raisonnement derrière cela est de concentrer le potentiel des avantages comparatifs et des compétences en intelligence artificielle sur des secteurs où les entreprises peuvent jouer un rôle clé au niveau mondial, et parce que ces technologies sont importantes pour l'intérêt public, etc.

Sept propositions clés sont avancées, dont l'une est particulièrement intéressante pour les besoins de cet article, à savoir rendre l'intelligence artificielle plus ouverte. Il est vrai que les algorithmes utilisés en intelligence artificielle sont discrets et, dans la plupart des cas, secrets de fabrication. Cependant, les algorithmes peuvent être biaisés, par exemple, dans le processus d'auto-apprentissage, ils peuvent absorber et adopter les stéréotypes qui existent dans la société ou qui leur sont transférés par les développeurs et prendre des décisions en fonction de ceux-ci. Il existe déjà un précédent juridique pour cela. Un prévenu aux États-Unis a été condamné à une longue peine de prison sur la base d'informations obtenues à partir d'un algorithme prédisant la probabilité de récidive. L'appel du défendeur contre l'utilisation d'un algorithme dans le processus de détermination de la peine a été rejeté car les critères utilisés pour évaluer la possibilité de récidives étaient un secret commercial et n'étaient donc pas présentés. La stratégie française propose de développer des algorithmes transparents pouvant être testés et vérifiés, de déterminer la responsabilité éthique des acteurs de l'intelligence artificielle, de créer un comité consultatif d'éthique, etc.

Union européenne

La création de la résolution sur les règles de droit civil sur la robotique a marqué le premier pas vers la réglementation de l'intelligence artificielle dans l'Union européenne. Un groupe de travail sur les questions juridiques liées au développement de la robotique et de l'intelligence artificielle dans l'Union européenne a été créé en 2015. La résolution n'est pas un document contraignant, mais elle donne un certain nombre de recommandations à la Commission européenne sur les actions possibles dans le domaine de l'intelligence artificielle, non seulement en ce qui concerne le droit civil, mais aussi les aspects éthiques de la robotique.

La résolution définit un « robot intelligent » comme « un robot qui a de l'autonomie grâce à l'utilisation de capteurs et/ou à l'interconnectivité avec l'environnement, qui a au moins un support physique mineur, qui adapte son comportement et ses actions à l'environnement et qui ne peut pas être défini comme ayant une « vie » au sens biologique. La proposition est faite d'« introduire un système d'enregistrement des robots avancés qui serait géré par une agence de l'UE pour la robotique et l'intelligence artificielle ». Concernant la responsabilité pour les dommages causés par les robots, deux options sont suggérées : « soit en responsabilité objective (aucune faute requise) soit sur une approche de gestion des risques (responsabilité d'une personne qui a su minimiser les risques) ». La responsabilité, selon la résolution, « devrait être proportionnelle au niveau réel d'instructions données au robot et à son degré d'autonomie. Les règles de responsabilité pourraient être complétées par un régime d'assurance obligatoire pour les utilisateurs de robots, et un fonds d'indemnisation pour verser une indemnisation au cas où aucune police d'assurance ne couvrait le risque.

La résolution propose deux codes de conduite pour traiter les questions éthiques : un code de conduite éthique pour les ingénieurs en robotique et un code pour les comités d'éthique de la recherche. Le premier code propose quatre principes éthiques en ingénierie robotique : 1) la bienfaisance (les robots doivent agir dans le meilleur intérêt des humains) 2) la non-malfaisance (les robots ne doivent pas nuire aux humains) 3) l'autonomie (l'interaction humaine avec les robots doit être volontaire) et 4) justice (les bénéfices de la robotique doivent être répartis équitablement).

Les exemples fournis dans cet article démontrent ainsi, entre autres, comment les valeurs sociales influencent l'attitude envers l'intelligence artificielle et sa mise en œuvre juridique. Par conséquent, notre attitude envers les systèmes autonomes (qu'ils soient des robots ou autre chose), et notre réinterprétation de leur rôle dans la société et de leur place parmi nous, peuvent avoir un effet transformationnel. La personnalité juridique détermine ce qui est important pour la société et permet de décider si « quelque chose » est un objet valable et raisonnable aux fins de la possession de droits et d'obligations.

En raison des spécificités de l'intelligence artificielle, des suggestions ont été avancées quant à la responsabilité directe de certains systèmes [11]. Selon cette ligne de pensée, il n'y a pas de raisons fondamentales pour lesquelles les systèmes autonomes ne devraient pas être légalement responsables de leurs actions. La question demeure cependant de savoir s'il est nécessaire ou souhaitable d'introduire ce type de responsabilité (du moins au stade actuel). Elle est également liée aux questions éthiques évoquées ci-dessus. Il serait peut-être plus efficace de rendre les programmeurs ou les utilisateurs de systèmes autonomes responsables des actions de ces systèmes. Mais cela pourrait ralentir l'innovation. C'est pourquoi nous devons continuer à rechercher l'équilibre parfait.

Afin de trouver cet équilibre, nous devons aborder un certain nombre de questions. Par exemple : Quels objectifs poursuivons-nous dans le développement de l'intelligence artificielle ? Et quelle sera son efficacité ? Les réponses à ces questions nous aideront à éviter des situations comme celle qui est apparue en Russie au XVIIe siècle, lorsqu'un animal (en particulier des chèvres) a été exilé en Sibérie pour ses actions [12].


Technologie de prédiction

En 2004, un groupe de professeurs de l'Université de Washington a testé la précision de leur algorithme dans la prévision des décisions de la Cour suprême sur les 628 affaires plaidées en 2002. Ils ont comparé les résultats de leur algorithme avec les conclusions d'une équipe d'experts. Le modèle statistique des chercheurs s'est avéré être un meilleur prédicteur en prévoyant correctement 75 pour cent des résultats par rapport à la précision de 59 pour cent de l'expert. Bien que dans une industrie distincte avec ses propres problèmes distincts, de nombreux cas d'utilisation supplémentaires de l'analyse prédictive peuvent être trouvés dans notre article sur l'analyse prédictive dans le secteur bancaire. Cet article met en lumière les programmes d'IA utilisant l'analyse prédictive pour résoudre les problèmes du monde réel.

En élargissant la couverture de 1816 à 2015, le professeur Daniel Katz de la Michigan State University et ses deux collègues ont obtenu une précision de 70,2 % sur les résultats des affaires de la Cour suprême dans leur étude de 2017. De même, Nikolaos Aletras de l'University College London et son équipe ont utilisé l'apprentissage automatique pour analyser le texte de l'affaire de la Cour européenne des droits de l'homme et ont rapporté une précision de 79 % sur leurs prévisions de résultats.

Le professeur Daniel Kantz, dans son article de 2012, a déclaré : « La prédiction juridique quantitative joue déjà un rôle important dans certains domaines de pratique et ce rôle est susceptible d'augmenter à mesure que l'accès aux données juridiques appropriées deviendra disponible.

Intraspexion

En effet, plusieurs sociétés d'IA se sont aventurées dans ce domaine comme Intraspexion, qui a breveté des systèmes logiciels qui prétendent présenter des signes avant-coureurs aux avocats lorsque l'outil d'IA détecte des menaces de litige.

Le système fonctionne en recherchant les documents à haut risque et les affiche en fonction du niveau de risque déterminé par l'IA. Lorsqu'un utilisateur clique sur un document, les termes de risque identifiés par les experts en la matière via l'algorithme sont mis en évidence. Selon l'entreprise, les utilisateurs peuvent savoir quels documents les exposent à des litiges lorsqu'ils utilisent le logiciel.

Loi Ravel

Un autre outil, Ravel Law, serait capable d'identifier les résultats sur la base de la jurisprudence pertinente, des décisions des juges et du langage de référence de plus de 400 tribunaux. La fonction de tableau de bord du juge du produit contient des affaires, des citations, des circuits et des décisions d'un juge spécifique qui sont censées aider les avocats à comprendre comment le juge est susceptible de statuer sur une affaire.

Le PDG du cabinet, Daniel Lewis, affirme cette affirmation dans cette interview lorsqu'il a expliqué que la loi Ravel peut aider dans la stratégie de litige en fournissant des informations sur la façon dont les juges prennent des décisions.

Lex Machina

La plate-forme d'analyse juridique de Lex Machina possède une variété de fonctionnalités censées aider les avocats dans leur stratégie juridique. Par exemple, la fonctionnalité d'analyse du temps utilise l'IA pour prédire le temps estimé lorsqu'une affaire sera jugée devant un juge spécifique.

Le Party Group Editor, d'autre part, permet aux utilisateurs de sélectionner des avocats et d'analyser leur expérience devant un juge ou un tribunal et le nombre de procès auxquels ils ont été impliqués auparavant, entre autres. Dans la vidéo ci-dessous, l'interface utilisateur du produit est présentée et des exemples de résultats d'analyse sont présentés :

Prémonition

Enfin, Premonition, qui prétend être la plus grande base de données de litiges au monde, affirme avoir inventé le concept de prédiction du succès d'un avocat en analysant son taux de victoire, la durée et le type de dossier, et son jumelage avec un juge avec une précision de 30,7 % des dossiers moyens. résultat. Selon la société, le produit peut également aider à examiner différents cas et combien de temps ils vont prendre pour chaque avocat.

Mais comme toute plate-forme d'analyse, les outils d'IA qui traitent de la technologie prédictive ont besoin de beaucoup de données sous forme de documents de cas pour fonctionner pleinement selon Kantz. Dans un article, le modèle est décrit comme « exceptionnellement compliqué ». C'est parce qu'il a besoin de près de 95 variables (avec des valeurs presque précises jusqu'à quatre décimales) soutenues par près de 4 000 arbres de décision aléatoires pour prédire le vote d'un juge. Kratz admet qu'une base de données qui prendra entièrement en charge son produit n'est toujours pas facilement disponible, à l'exception de quelques-unes qui facturent des frais d'accès pour obtenir des données.


De nombreuses IA sont déjà utilisées dans le domaine médical, allant de la prise de rendez-vous en ligne, des enregistrements en ligne dans les centres médicaux, de la numérisation des dossiers médicaux, des appels de rappel pour les rendez-vous de suivi et des dates de vaccination pour les enfants et les femmes enceintes aux médicaments. algorithmes de dosage et avertissements d'effets indésirables lors de la prescription d'associations multimédicaments. Le diagramme circulaire [ Figure 1 ] résume les grandes applications de l'IA en médecine.

Applications de l'intelligence artificielle dans les soins de santé

La radiologie est la branche qui s'est montrée la plus directe et la plus accueillante à l'égard de l'utilisation des nouvelles technologies[6]. Les ordinateurs, initialement utilisés en imagerie clinique pour des tâches administratives telles que l'acquisition et le stockage d'images, deviennent désormais un élément indispensable de l'environnement de travail avec l'origine du système d'archivage et de communication des images. L'utilisation du CAD (diagnostic assisté par ordinateur) dans une mammographie de dépistage est bien connue. Des études récentes ont indiqué que la CAD n'est pas d'une grande aide au diagnostic, basée sur des valeurs prédictives positives, la sensibilité et la spécificité. De plus, les diagnostics faussement positifs peuvent distraire le radiologue, ce qui entraîne des examens inutiles.[7,8] Comme le suggère une étude[6], l'IA pourrait fournir une aide substantielle en radiologie non seulement en étiquetant les examens anormaux, mais aussi en identifiant examens négatifs rapides en tomodensitométrie, radiographies, images par résonance magnétique, en particulier dans les environnements à volume élevé et dans les hôpitaux avec moins de ressources humaines disponibles.

Un système d'aide à la décision connu sous le nom de DXplain a été développé par l'université du Massachusetts en 1986, qui donne une liste des différences probables en fonction du complexe de symptômes et il est également utilisé comme outil pédagogique pour les étudiants en médecine comblant les lacunes non expliquées dans les manuels scolaires standard. [9] Germwatcher est un système développé par l'Université de Washington pour détecter et enquêter sur les infections nosocomiales.[10] Une application en ligne au Royaume-Uni connue sous le nom de Babylon peut être utilisée par les patients pour consulter le médecin en ligne, vérifier les symptômes, obtenir des conseils, surveiller leur santé et commander des kits de test. En dehors de cela, le spectre de l'IA s'est élargi pour fournir également des installations thérapeutiques. AI-therapy est un cours en ligne qui aide les patients à traiter leur anxiété sociale en utilisant l'approche thérapeutique de la thérapie cognitivo-comportementale. Il a été développé à partir d'un programme CBTpsych.com à l'Université de Sydney.[11]

Le système chirurgical robotisé Da Vinci développé par Intuitive chirurgicales a révolutionné le domaine de la chirurgie, en particulier les chirurgies urologiques et gynécologiques. Les bras robotiques du système imitent les mouvements de la main d'un chirurgien avec une meilleure précision et disposent d'une vue 3D et d'options de grossissement qui permettent au chirurgien d'effectuer de minuscules incisions.[3] Depuis 2018, Buoy Health et l'hôpital pour enfants de Boston travaillent en collaboration sur un système d'IA basé sur une interface Web qui fournit des conseils aux parents pour leur enfant malade en répondant à des questions sur les médicaments et si les symptômes nécessitent une visite chez le médecin.[12] L'Institut national de la santé (NIH) a créé une application AiCure, qui surveille l'utilisation des médicaments par le patient via l'accès à la webcam du smartphone et réduit ainsi les taux de non-observance.[13]

Fitbit, Apple et d'autres trackers de santé peuvent surveiller la fréquence cardiaque, les niveaux d'activité, les niveaux de sommeil, et certains ont même lancé les tracés ECG en tant que nouvelle fonctionnalité. Toutes ces nouvelles avancées peuvent alerter l'utilisateur de toute variation et permettre au médecin d'avoir une meilleure idée de l'état du patient. Les Pays-Bas utilisent l'IA pour l'analyse de leur système de santé - détectant les erreurs de traitement, les inefficacités du flux de travail pour éviter les hospitalisations inutiles.

Outre les inventions qui existent déjà, il existe certaines avancées dans diverses phases de développement, qui aideront les médecins à devenir de meilleurs médecins. Watson Health d'IBM en est un excellent exemple, qui sera équipé pour identifier efficacement les symptômes des maladies cardiaques et du cancer. L'Université de Stanford élabore un programme de soins assistés par l'IA (PAC). PAC dispose d'un système intelligent de soutien au bien-être des personnes âgées et d'unités de soins intensifs intelligentes, qui détecteront tout changement de comportement chez les personnes âgées vivant seules[14] et les patients en soins intensifs,[15] respectivement, via l'utilisation de plusieurs capteurs. PAC étend également ses projets au support Intelligent Hand Hygiene et aux agents conversationnels de la santé. L'aide à l'hygiène des mains utilise des capteurs de profondeur affinant la technologie de vision par ordinateur pour obtenir une hygiène parfaite des mains pour les cliniciens et le personnel infirmier, réduisant ainsi les infections nosocomiales.[16] Les projets conversationnels dans le domaine de la santé analysent la manière dont Siri, Google Now, S voice et Cortana répondent aux questions de santé mentale, de violence interpersonnelle et de santé physique posées par les utilisateurs de téléphones portables, permettant ainsi aux patients de se faire soigner plus tôt. Molly est une infirmière virtuelle qui est en cours de développement pour fournir des soins de suivi aux patients sortis de l'hôpital, permettant aux médecins de se concentrer sur les cas les plus urgents.


Nicholas Gaffney (NG) est le fondateur de Zumado Public Relations à San Francisco, Californie et est membre du comité éditorial de Law Practice Today. Contactez-le au [email protected] ou sur Twitter @nickgaffney.

Mauricio Uribe (UM), associé chez Knobbe Martens, est expérimenté dans tous les aspects du droit de la propriété intellectuelle, avec une spécialisation dans les domaines de l'ingénierie électrique et des logiciels informatiques. Il fournit des conseils sur les questions de brevetabilité, de diligence raisonnable et d'atténuation de la contrefaçon et de programmes complets de propriété intellectuelle.
Kim Massana (KM) est PDG de Neota Logic, une plate-forme d'automatisation d'IA de premier plan pour les services professionnels. Avant Neota Logic, il a travaillé pour Thomson Reuters et a dirigé un certain nombre de sociétés de logiciels.
Nicolas Economou (NE) est le PDG de H5, une entreprise pionnière dans l'application de méthodes scientifiques à la découverte électronique. Il préside les comités juridiques de l'IEEE Global Initiative on Ethics of Autonomous and Intelligent Systems et de la Global Governance of AI Roundtable.
Bobbi Basile (BB) est directeur général de la pratique Transformation juridique + Innovation au sein de l'activité de conseil chez HBR Consulting, et a plus de 25 ans d'expérience dans la prestation de services stratégiques, opérationnels et technologiques aux départements juridiques et cabinets d'avocats Fortune 500.
Ben Lévi (BL) est co-fondateur et COO de InCloudCounsel, une entreprise de technologie juridique qui automatise et améliore les processus juridiques volumineux pour les grandes entreprises. Avant InCloudCounsel, Ben a pratiqué le droit des sociétés chez Kirkland & Ellis.
Jon O'Connell (JO) est avocat d'entreprise et membre fondateur de l'équipe juridique d'Atrium. Sa pratique se concentre sur la représentation d'entreprises émergentes et d'investisseurs en capital de risque. En tant que partenaire chez Atrium, Jon aime conseiller les startups clientes et travailler avec la direction pour résoudre des problèmes commerciaux complexes en temps opportun.
Jeremy Peter Green (JPG) est avocat en marques, développeur de logiciels et fondateur de JPG Legal. En 2018, JPG Legal a été classé n°22 des cabinets d'avocats aux États-Unis sur la base du nombre de demandes fédérales de marques déposées. Jeremy développe actuellement un moteur de recherche d'autorisation de marque alimenté par l'IA.

NG : Les résultats d'un sondage ABA publié au début de l'année ont indiqué que seulement 10 % des personnes interrogées utilisaient des outils technologiques basés sur l'intelligence artificielle pour leur travail juridique en 2018. Plus l'entreprise pour laquelle une personne interrogée travaillait était grande, plus ils déclaraient utiliser l'IA 35 %. des répondants de cabinets comptant plus de 500 avocats ont utilisé l'IA, contre seulement 4 % des répondants de cabinets employant de deux à neuf avocats. Ces chiffres vous surprennent ? Pensez-vous que les cabinets d'avocats et les services juridiques sont là où ils devraient être avec leur utilisation de l'IA ?

MU : Les cabinets d'avocats bénéficient traditionnellement le plus de l'adoption de solutions technologiques dans les situations où il existe une bonne compréhension de la technologie (y compris les caractéristiques et les limites) et un plan détaillé sur la façon dont la technologie sera utilisée/adoptée par le cabinet d'avocats. Cependant, le plus grand risque pour un cabinet d'avocats en adoptant une solution technologique est de se concentrer sur une fonctionnalité/un avantage technologique sans comprendre comment cela affectera les opérations quotidiennes (solutions internes) ou comment l'avantage/la fonctionnalité perçu peut être exploité pour la pratique du droit (solutions externes).

Les résultats de l'enquête ABA ne sont pas surprenants. Actuellement, les solutions/technologies basées sur l'IA sont probablement limitées à une application dans des domaines de pratique spécifiques ou même des types d'activités spécifiques au sein d'une pratique. Par exemple, mener des activités qui nécessitent une recherche ou un examen des données. De plus, alors qu'un certain nombre de fournisseurs de services peuvent être exploités pour fournir les ressources informatiques et les moteurs d'IA, les solutions d'IA peuvent encore être d'un coût prohibitif pour la mise en œuvre des cabinets d'avocats, en particulier les petites entreprises.

Enfin, la mise en œuvre et l'adoption de solutions basées sur l'IA nécessitent une certaine expertise technique (en interne ou via des consultants). À ce stade, la plupart des cabinets d'avocats, en particulier les petits cabinets, n'ont pas d'avocats ou de personnel ayant l'expérience pratique de l'IA pour une adoption plus large.

KM : Ce n'est pas surprenant à entendre. La technologie de l'IA en est encore à ses débuts et est utilisée par les premiers utilisateurs. Tant de fournisseurs prétendent maintenant fournir de l'IA, mais les cabinets d'avocats prennent leur temps pour sélectionner cette technologie. Beaucoup d'entre eux veulent attendre et voir ce qui fonctionne réellement. Nous commençons à voir des réussites qui conduiront à une plus grande adoption par les entreprises.

Personnellement, nous voyons des entreprises avec autant de cas d'utilisation. Il peut parfois être difficile pour eux de savoir par où commencer. Nous avons concentré une grande partie de nos efforts à travailler avec eux pour identifier les meilleurs domaines pour commencer à utiliser notre technologie d'IA, puis collaborer avec eux pour l'étendre dans d'autres domaines de l'entreprise. Un autre facteur qui entre en jeu est l'heure facturable. Il n'est pas toujours dans l'intérêt des cabinets d'avocats d'augmenter leur efficacité. Cependant, les entreprises seront laissées pour compte si leurs concurrents offrent des services nouveaux et améliorés, facilités par la technologie de l'IA.

NE : Je ne suis pas si surpris. L'adoption est lente en raison de quelques facteurs. Premièrement, la mise en œuvre efficace de l'IA est plus difficile que les praticiens ne l'avaient prévu. Deuxièmement, l'IA devient de plus en plus complexe. Third, courts, litigators, corporate legal operations and compliance professionals, and regulators—including the friendly folks who brought us GDPR—increasingly want evidence that AI operators know what they are doing.

Finally, best practices on the adoption of AI and the competencies needed to effectively operate it in legal functions are still being worked out, and it’s not an easy process. In electronic discovery, where AI has been used for well over a decade, even the task of measuring how accurate AI (TAR) is remains a challenge for most practitioners. Until there are standards and accreditations that allow effective procurement and operation, as is the case in data security, for example, adoption will remain slow.

BB: Given that AI-enabled technologies have been available in the legal market since about 1999 (with the introduction of DolphinSearch), I’m surprised that only 10% of respondents used AI-based tools in 2018.

I’m not surprised that respondents employed by larger firms are more likely to have used AI-based technology for legal work. Larger firms have more money to invest in initiatives that enhance or extend the delivery of legal services. Additionally, larger firms have the personnel with appropriate skills to support the effective use of technologies, such as sophisticated practice technology or litigation support teams with CAR/TAR technologies. Further, those firms manage large matters that benefit from the use of AI tools. While small firms can benefit from applying innovative technologies, they often do not have the resources to fund acquisition and support effective use.

BL: The survey results do not surprise me. AI is still in its relative infancy, and legal teams are not generally early adopters of new technology. Yet it has been the larger law firms—and their most sophisticated clients—who have been leading the way in implementing AI-enabled legal technology solutions. That is impressive and leads me to believe that firms are right where they should be when it comes to their use of AI. I think that number itself represents a willingness to evolve and a recognition that, in order to be competitive in today’s landscape, law firms have to leverage technology in order to deliver the best and most efficient legal work possible. That will only become more important, and I think the industry recognizes that.

JO: No, unfortunately, these numbers are not surprising. Law firms and legal departments are behind when it comes to their use of AI. There is a misalignment of incentives in the traditional law firm setting when it comes to investing in cutting-edge technologies. Firms could make the investment but do not because of the negative impact on short-term profitability and reliance on billable hour business model. At Atrium we are making this investment in technology and aligning incentives with our clients through fixed-fee pricing and a subscription model. We are still in the early days of AI’s deployment in the legal industry and we expect these numbers to increase over the next few years.

JPG: I’m a little confused by these numbers. Anybody using Google for any sort of research is using one of the world’s most advanced AI-backed tools for legal work, whether they’re looking into an opponent’s business entities, combing through news articles for a quote to cite, trying to find the right government agency website for filing a form, or looking for a legal blog post summarizing the implications of an obscure subsection of ERISA they’ve never heard of.

The basic search engines of LexisNexis and Westlaw arguably use artificial intelligence as well. Regarding whether law firms are where they should be with AI, it doesn’t make much sense for law firms to invest in AI. The main purpose of AI is to reduce the time humans spend on tasks, but the business model of most law firms depends on billing as much human time as possible to clients, so law firms don’t need to invest in AI (or any legal process automation) until certain advancements are so ubiquitous that clients expect it. There are some exceptions—most associates still appreciate having a good search engine that quickly finds them what they want, even if it is bad for billing, and some AI may even open up opportunities to bill clients for new tasks, like image-recognition algorithms that allow lawyers to run trademark searches on foreign logo registrations—but administrative tech is what most law firms should be focusing on (HR and billing). In-house legal departments, on the other hand, should all have somebody on their staff actively seeking AI-based legal solutions because reducing time spent on legal processes benefits their companies and saves them money.

NG: Do you think the typical law firm leader understands the ways in which AI can currently be used to the firm’s benefit? What factors do you think influence this?

MU: Relative to other technologies, it may be more difficult for law firm leaders to understand AI-solutions, especially the more complex, deep learning AIs, and how they can be configured to address specific needs/problems. Identifying specific AI algorithms, selecting configurations for AI services, or culling data sets can often exceed the technological expertise of most typical law firm leaders. Law firm leaders may be best suited to define the desired result (e.g., I want to better understand the relationships between x, y, and z) and whether the law firm is willing to adjust their operation based on the AI-solutions. Partnering with consultants or in-house technical expertise is likely the best opportunity to determine when and how AI-solutions can be best leveraged.

Law firm leaders must also be cognizant of risk management issues associated with adopting a new technology or incorporating technology not previously utilized by the specific firm. With technology, such as AI, law firm leaders may be reticent to be first adopters of AI-based solutions without a clear understanding of the potential for error or bias.

KM: We meet so many law firms with an “AI budget” but they are still unclear on what AI can actually offer them. So many vendors are claiming to offer AI and the majority of this technology serves different purposes.

That’s not to say that everyone we speak to shares this view. Many emerging innovation departments and industry leaders really do their research into what AI solutions are and what challenges they can solve. More is being done to educate law firm leaders in terms of white papers, case studies, and events on the various differences.

NE: Most law firm leaders have a sense of the risks and benefits of AI, but generally do not have the information needed to make evidence-based decisions when it comes to AI. And that is understandable, as the information they could rely upon for guidance often does not exist. For example, other than the groundbreaking NIST TREC Legal Track studies conducted when TAR was first entering the marketplace, there is no recent scholarship to answer the simple question any law firm leader should be asking: “Does this work?” The NIST studies showed that results varied widely depending on the tool, method, and operator. These factors will affect all other AI tools too, as will the match (or lack of match) between a tool and the use to which it is being put. Given lawyers’ professional responsibilities, a law firm leader will be warranted in treading cautiously while scientifically valid methods of evaluating the efficacy of such tools evolve.

BB: Law firm leaders often seem to use the term “AI” as a proxy for “all things that can modernize the practice of law.” But using AI-enabled technologies to streamline, enhance, or extend the delivery of legal services is only one of several uses that can benefit the firm and its clients. Law firm leaders are often excited by the concept of AI but do not necessarily understand the ways it can be used.

JO: Partners of traditional law firms do not understand the value that AI can bring to their business, much less the value it can bring to their clients. There is a lot of buzz about legal technology, especially machine learning and AI, intending to “replace attorneys.” This is false. It’s clickbait for catchy news headlines.

When done right, AI can greatly enhance the value and insight that attorneys can provide their clients. It can eliminate the time spent on mundane or administrative work so that attorneys can focus on providing informed and thoughtful advice on the issues and risks their clients face.

At Atrium, we’re building a platform that enhances the attorney-client relationship and provides deeper and better-informed advice. For example, with our technology, we have the ability to extract data and insights from corporate documents, which allow our lawyers to provide deep insights into our clients and their respective businesses.

NG: In what ways have law firms found the implementation of AI to be most impactful?

KM: The key to AI is automating frequent, routine, and low-value tasks. It doesn’t need to be in a specific area of law that you are automating, but legal tasks that tick all these boxes are where firms are going to see the most impact and the highest return. Using AI to automate more complex tasks is completely possible too, but you need to be prepared to put in the work to achieve this. At Neota, we stress the importance of leaving infrequent, high-value tasks to the lawyers, as this is what they have been trained to do.

NE: Two areas seem to be most impactful: M&A due diligence and discovery. The choice of the word “impact” is interesting. The impact in a given matter can be very beneficial for both law firms and clients: finding a smoking gun fast really matters! But the impact for the legal profession may go to the heart of what is considered a legal service and what services actually constitute competitive advantages.

Because trailing right behind due diligence and discovery are uses related to law firm management and AI’s more predictive powers: predictions of deal profitability, case value, and profitability, favorable judges/jurisdictions/juries. As AI becomes more sophisticated, I believe that law firms will be faced with the question of whether they can be both great law firms and great data analytics firms. The competencies to be successful at each of these tasks are very different and will become increasingly so as AI becomes more sophisticated.

BB: E-discovery was the first sandbox for the application of AI-enabled tools, using AI to accelerate document review during the discovery phase of litigation. Mergers and acquisitions are another area where AI-enabled technologies have been employed to support contract review during the due diligence phase. Contract analysis is the latest area to benefit from the capabilities enabled by machine learning. More nascent uses include blending predictive analytics and its algorithms, firm-specific intellectual property, and AI-enabled tools to create new proprietary tools.

JO: At Atrium we are building proprietary technology to increase attorney efficiency and provide our legal team and clients with a better experience. Thanks to Atrium’s technology, our attorneys are able to focus on high-impact advisory work. We see every level of the legal team as “up-leveled.”

In other words, routine work that an attorney may traditionally have to handle can now be completed by a paralegal (under the supervision of an attorney). Likewise, work that paralegals may traditionally do, like reviewing documents, can be done by practice assistants. AI makes many of these repetitive processes extremely efficient. For example, reviewing certain documents is about 10x faster with Atrium’s technology compared to the status quo way of working.

Additionally, we leverage operations teams to help define repeatable processes to operationalize our practice so that we can continue to scale our legal services with ease. This ensures that each legal team member is able to spend more time and attention to providing great service to our clients rather than managing administrative tasks.


We need a new field of AI to combat racial bias

Since widespread protests over racial inequality began, IBM announced it would cancel its facial recognition programs to advance racial equity in law enforcement. Amazon suspended police use of its Rekognition software for one year to “put in place stronger regulations to govern the ethical use of facial recognition technology.”

But we need more than regulatory change the entire field of artificial intelligence (AI) must mature out of the computer science lab and accept the embrace of the entire community.

We can develop amazing AI that works in the world in largely unbiased ways. But to accomplish this, AI can’t be just a subfield of computer science (CS) and computer engineering (CE), like it is right now. We must create an academic discipline of AI that takes the complexity of human behavior into account. We need to move from computer science-owned AI to computer science-enabled AI. The problems with AI don’t occur in the lab they occur when scientists move the tech into the real world of people. Training data in the CS lab often lacks the context and complexity of the world you and I inhabit. This flaw perpetuates biases.

AI-powered algorithms have been found to display bias against people of color and against women. In 2014, for example, Amazon found that an AI algorithm it developed to automate headhunting taught itself to bias against female candidates. MIT researchers reported in January 2019 that facial recognition software is less accurate in identifying humans with darker pigmentation. Most recently, in a study late last year by the National Institute of Standards and Technology (NIST), researchers found evidence of racial bias in nearly 200 facial recognition algorithms.

In spite of the countless examples of AI errors, the zeal continues. This is why the IBM and Amazon announcements generated so much positive news coverage. Global use of artificial intelligence grew by 270% from 2015 to 2019, with the market expected to generate revenue of $118.6 billion by 2025. According to Gallup, nearly 90% Americans are already using AI products in their everyday lives – often without even realizing it.

Beyond a 12-month hiatus, we must acknowledge that while building AI is a technology challenge, using AI requires non-software development heavy disciplines such as social science, law and politics. But despite our increasingly ubiquitous use of AI, AI as a field of study is still lumped into the fields of CS and CE. At North Carolina State University, for example, algorithms and AI are taught in the CS program. MIT houses the study of AI under both CS and CE. AI must make it into humanities programs, race and gender studies curricula, and business schools. Let’s develop an AI track in political science departments. In my own program at Georgetown University, we teach AI and Machine Learning concepts to Security Studies students. This needs to become common practice.

Without a broader approach to the professionalization of AI, we will almost certainly perpetuate biases and discriminatory practices in existence today. We just may discriminate at a lower cost — not a noble goal for technology. We require the intentional establishment of a field of AI whose purpose is to understand the development of neural networks and the social contexts into which the technology will be deployed.

In computer engineering, a student studies programming and computer fundamentals. In computer science, they study computational and programmatic theory, including the basis of algorithmic learning. These are solid foundations for the study of AI – but they should only be considered components. These foundations are necessary for understanding the field of AI but not sufficient on their own.

For the population to gain comfort with broad deployment of AI so that tech companies like Amazon and IBM, and countless others, can deploy these innovations, the entire discipline needs to move beyond the CS lab. Those who work in disciplines like psychology, sociology, anthropology and neuroscience are needed. Understanding human behavior patterns, biases in data generation processes are needed. I could not have created the software I developed to identify human trafficking, money laundering and other illicit behaviors without my background in behavioral science.

Responsibly managing machine learning processes is no longer just a desirable component of progress but a necessary one. We have to recognize the pitfalls of human bias and the errors of replicating these biases in the machines of tomorrow, and the social sciences and humanities provide the keys. We can only accomplish this if a new field of AI, encompassing all of these disciplines, is created.


Does this Convenience Come at a Cost?

AI is both a blessing as well as a curse. On the one hand, AI is being used in cyber security to detect malware and suspicious activity online, especially on the dark net. AI’s ability to track patterns and anomalies makes the task easier and more efficient. It’s also beneficial in improving security and safety algorithms with its ability to analyse data and churn out possible solutions. Unlike human resources, AI can work 24/7/365. Artificial intelligence-based cyber security solutions are designed to work around the clock and respond within milliseconds.

On the other hand, it can serve as a deadly weapon in the arsenal of cybercriminals who may use AI to improve their cyberattacks. Another big factor that works in favour of cybercriminals is the cost of developing and implementing AI systems. Most businesses prefer using human power, rather than costly and complicated AI, to protect their systems. Cybercriminals, however, don’t require overly sophisticated systems to run their attacks.


Using Artificial Intelligence to Find New Uses for Existing Medications

Scientists have developed a machine-learning method that crunches massive amounts of data to help determine which existing medications could improve outcomes in diseases for which they are not prescribed.

The intent of this work is to speed up drug repurposing, which is not a new concept – think Botox injections, first approved to treat crossed eyes and now a migraine treatment and top cosmetic strategy to reduce the appearance of wrinkles.

But getting to those new uses typically involves a mix of serendipity and time-consuming and expensive randomized clinical trials to ensure that a drug deemed effective for one disorder will be useful as a treatment for something else.

The Ohio State University researchers created a framework that combines enormous patient care-related datasets with high-powered computation to arrive at repurposed drug candidates and the estimated effects of those existing medications on a defined set of outcomes.

Though this study focused on proposed repurposing of drugs to prevent heart failure and stroke in patients with coronary artery disease, the framework is flexible – and could be applied to most diseases.

“This work shows how artificial intelligence can be used to ‘test’ a drug on a patient, and speed up hypothesis generation and potentially speed up a clinical trial,” said senior author Ping Zhang, assistant professor of computer science and engineering and biomedical informatics at Ohio State. “But we will never replace the physician – drug decisions will always be made by clinicians.”

The research is published today (Jan. 4, 2021) in Nature Machine Intelligence.

Drug repurposing is an attractive pursuit because it could lower the risk associated with safety testing of new medications and dramatically reduce the time it takes to get a drug into the marketplace for clinical use.

Randomized clinical trials are the gold standard for determining a drug’s effectiveness against a disease, but Zhang noted that machine learning can account for hundreds – or thousands – of human differences within a large population that could influence how medicine works in the body. These factors, or confounders, ranging from age, sex and race to disease severity and the presence of other illnesses, function as parameters in the deep learning computer algorithm on which the framework is based.

That information comes from “real-world evidence,” which is longitudinal observational data about millions of patients captured by electronic medical records or insurance claims and prescription data.

“Real-world data has so many confounders. This is the reason we have to introduce the deep learning algorithm, which can handle multiple parameters,” said Zhang, who leads the Artificial Intelligence in Medicine Lab and is a core faculty member in the Translational Data Analytics Institute at Ohio State. “If we have hundreds or thousands of confounders, no human being can work with that. So we have to use artificial intelligence to solve the problem.

“We are the first team to introduce use of the deep learning algorithm to handle the real-world data, control for multiple confounders, and emulate clinical trials,” Zhang said.

The research team used insurance claims data on nearly 1.2 million heart-disease patients, which provided information on their assigned treatment, disease outcomes and various values for potential confounders. The deep learning algorithm also has the power to take into account the passage of time in each patient’s experience – for every visit, prescription and diagnostic test. The model input for drugs is based on their active ingredients.

Applying what is called causal inference theory, the researchers categorized, for the purposes of this analysis, the active drug and placebo patient groups that would be found in a clinical trial. The model tracked patients for two years – and compared their disease status at that end point to whether or not they took medications, which drugs they took and when they started the regimen.

“With causal inference, we can address the problem of having multiple treatments. We don’t answer whether drug A or drug B works for this disease or not, but figure out which treatment will have the better performance,” Zhang said.

Their hypothesis: that the model would identify drugs that could lower the risk for heart failure and stroke in coronary artery disease patients.

Though this study focused on proposed repurposing of drugs to prevent heart failure and stroke in patients with coronary artery disease, the framework is flexible – and could be applied to most diseases. L'image est dans le domaine public

The model yielded nine drugs considered likely to provide those therapeutic benefits, three of which are currently in use – meaning the analysis identified six candidates for drug repurposing. Among other findings, the analysis suggested that a diabetes medication, metformin, and escitalopram, used to treat depression and anxiety, could lower risk for heart failure and stroke in the model patient population. As it turns out, both of those drugs are currently being tested for their effectiveness against heart disease.

Zhang stressed that what the team found in this case study is less important than how they got there.


Is This Clearly a Doge?

Our Doges on Trial pilot rewarded users who submitted non-repeated images of the Doge meme onto a list. Jurors would decide whether an image should be accepted or not. This is a sample of the submitted pictures.

Image recognition technology has made huge progress over recent years and a big part of the decision-making process of accepting images could be automated.

A test with image recognition software over the images submitted in the Doges on Trial experiment.

The experiment also rewarded 50 ETH to whoever was able to sneak the image of a cat past Kleros' jurors. Users submitted a large number of cat images which were correctly identified by jurors (to learn more about these attempts, see this post). Many of these could also be identified by algorithms.

And then someone sent the following:

The image went unchallenged past the jury (hey, it looks like a Doge, right?). The submitter then sent the picture below and argued that the animal in the previous image and the one below are the same. Hence, he continued, as he had succeeded in sneaking a cat into the list, he was eligible for the 50 ETH reward.

The payout policy expressed that, to be eligible for the reward, the image had to "clearly display" a cat. It could be argued, of course, that the initially submitted image didn't "clearly display" a cat.

Image recognition software was pretty confident that this was a Doge:

However, one could argue that the image was actually from this dog (instead of a cat) taken from this angle:

Since we couldn't find an agreement on this, we decided to make a Kleros escrow trial for the 50 ETH between Coopérative Kleros (which held that the image didn't comply with the payout policy) and the submitter (who argued that it did).

Jurors were asked to answer the question: does the image comply with the payout policy of "clearly" displaying a cat?

Jurors ruled that the image did not comply with the policy. Coopérative Kleros won.


7 Ways That Artificial Intelligence Helps Students Learn

The role of artificial intelligence in education is always a hot topic. While some fear that artificial intelligence will take over education to the detriment of students and teachers, others claim that artificial intelligence will revolutionize and improve education.

While we’re far from seeing robots in the classroom, artificial intelligence is making its way into education. Certain tasks can be made easier through the use of artificial intelligence. Grading, for example, can be done quickly and easily using artificial intelligence. The most important way that education will transform education is by simply helping students to learn. In this piece, I will discuss 7 ways that artificial intelligence helps students learn.

Students can receive more personalized tutoring.

When your child fails to understand the material covered in the lesson, it can sometimes be a challenge to make sure they catch up. Our classrooms are oversized and children are lost in the shuffle. Parents may have a difficult time teaching the new standards expected of young children, particularly because they are so distant from their own elementary school days.

Artificial intelligence can fill in the gap with crowd-sourced tutoring from professionals and more advanced classmates. Students can avoid the shame and embarrassment of asking for excess assistance in front of their peers without sacrificing their grades and achievements. Tutoring is more accessible and affordable than ever before using these digitized programs.

The computer sets the perfect pace.

For years, qualified educators have known that there is no such thing as a one-size-fits-all approach to teaching a lesson. It’s nearly impossible to incorporate every possible learning style into each lesson while setting the perfect pace. Fast learners need to stay engaged while slow learners can’t be left behind. With the number of students increasing, the perfect pace is an elusive concept. Now, artificial intelligence can help to set the perfect pace for every student.

The individualized programs allow students to move on at their own rate. Particularly because the maturity levels and attention spans of elementary-aged students vary wildly, this gives children an ideal opportunity to explore academics at a comfortable speed. It is neither overwhelming nor frustrating for them to learn.

Technology can present material in understandable terms.

Students with learning disabilities often have a difficult time reading more advanced texts. They may not be able to follow complex sentence structures, or they could struggle with popular idioms found in the text itself. Scientists and researchers are molding artificial intelligence that can make these harder texts into more understandable resources. They might create a simpler sentence or replace popular quips with plainer alternatives. It should be a great way for students with learning disabilities to better relate to and engage with the material.

Artificial intelligence helps educators identify learning disabilities.

The first step in learning to work with these disabilities is identifying their presence in a student. Not all of the current testing methods are highly effective at pinpointing learning disabilities like dyslexia or dyscalculia. New artificial intelligence systems are being developed to help teachers administer more effective testing that could uncover some of these often-hidden conditions. Once they can be properly identified, educators can tap into the resources available for a learning disability.

Students can use AI to give reliable feedback.

One of the most prominent issues with teaching students who have a learning disability is the inability to provide consistent feedback. In a large classroom setting, it can be a challenge to slow down to help a handful of students. With artificial intelligence rapidly developing, students can receive more reliable feedback directly related to their own performance. The system won’t move on until students demonstrate mastery of the concept, and it allows them to work through the material at their own pace if necessary.

Educators can have more data.

The numbers rarely lie when it comes to determining classroom success. With the advent of artificial intelligence, educators have more access than ever before to a variety of data that can assist them in identifying student weaknesses. This data may reveal areas where teaching isn’t effective or subjects where the majority of students are struggling. It also gives educators a better glimpse at how students with learning disabilities are truly doing in comparison to their peers.

Making education global.

Thanks to artificial education, students now have the ability to learn anywhere, anytime. This means that if a student has to miss school for personal or medical reasons, they can easily stay caught up with the school work via artificial education software. Students also have the ability to learn from anywhere in the world, making higher quality education for rural students and those in low economic areas accessible and affordable.

With the help of AI, students can learn more from home and come to the classroom with a set of core competencies that teachers can then build on. Artificial education is leveling the playing field of education for students across the globe and giving those without access to quality education equal opportunities.

While artificial intelligence and education may seem like a futuristic invention, it’s present in our lives and education systems today. With the help of artificial education, we can make both students’ and teachers’ lives easier. Artificial education gives every student the opportunity to receive a quality education, and individualizes learning.


Voir la vidéo: Luc Julia - LIntelligence Artificielle nexiste pas (Janvier 2022).