[Réflexion] Médiation et IA : la révolution silencieuse. A quel point ChatGPT est-il humain ? Par Michael Lardy, Médiateur.

[Réflexion] Médiation et IA : la révolution silencieuse. A quel point ChatGPT est-il humain ?

Par Michael Lardy, Médiateur.

806 lectures 1re Parution: 4.67  /5

Ce que vous allez lire ici :

Le lancement de ChatGPT en novembre 2022 a suscité un intérêt considérable pour son utilisation dans la médiation. Les capacités de l'IA soulèvent des questions sur la relevé des médiateurs humains et leur rôle face à une technologie en constante évolution, capable d'analyser, comprendre et simuler des interactions émotionnelles.
Description rédigée par l'IA du Village

L’article examine l’impact de l’intelligence artificielle, en particulier ChatGPT, sur la médiation. Il explore les capacités d’écoute active et d’intelligence émotionnelle des IA, tout en soulignant les implications éthiques et pratiques de leur utilisation. L’auteur conclut que les médiateurs doivent s’adapter à ces technologies pour rester pertinents.

-

Le lancement de ChatGPT en novembre 2022 a été fulgurant : un million de personnes se sont inscrites en cinq jours. Du jamais vu. Facebook avait mis 10 mois en 2004 pour atteindre le premier million d’utilisateurs, et Instagram en 2010 encore 2,5 mois. ChatGPT [1] et d’autres IA publiées au fil du temps ont massivement changé notre monde, rendant possible ce qui semblait jusque-là infaisable et soulevant de nombreuses questions.

Il n’a pas fallu longtemps pour que les médiateurs et médiatrices prennent conscience de ce nouvel outil et se demandent dans quelle mesure une IA peut être utilisée dans le cadre de la médiation [2], et si les médiateurs deviendront peut-être superflus [3] à moyen terme. La force particulière de la médiatrice réside dans la maîtrise virtuose de la langue et dans l’écoute active, attentive à la langue corporelle, aux mimiques, aux gestes et au ton. Les médiateurs qui réussissent sont des maîtres du langage.
Les IA comme ChatGPT sont des LLM (Large Language Models), des systèmes d’IA entraînés avec des quantités énormes de textes et dont la force particulière réside dans la formulation éloquente des phrases. Les LLM sont, comme les médiatrices, également des maîtres de la langue.

Développements très dynamiques.

Les développements actuels dans le domaine de l’IA sont si incroyablement dynamiques qu’ils sont parfois grandement sous-estimés même par les meilleurs professionnels : "Même GPT 5000 ne sera pas capable de comprendre ce problème" [4], a déclaré Yann LeCun, chef du département d’IA de Meta (anciennement Facebook), le 22 janvier 2022 dans un podcast [5]. À cette date, ChatGPT 3.0 était à jour. Seulement onze mois plus tard, en novembre 2022, ChatGPT 3.5 est apparu et a été capable de résoudre le problème décrit comme insoluble par LeCun début 2022.

Faire des prévisions sur la signification que l’Intelligence Artificielle aura dans le cadre de la médiation serait de la pure spéculation. On peut également se demander s’il est souhaitable que les médiations soient prises en charge par des systèmes d’IA à l’avenir. Cependant, les capacités impressionnantes des systèmes d’IA et la vitesse incroyable à laquelle ils sont constamment améliorés ne doivent pas être ignorées par les médiatrices, mais plutôt étudiées.
Susan Guthrie, avocate et médiatrice américaine, promeut ses webinaires sur la médiation et l’IA avec le slogan : "Les systèmes d’IA ne remplaceront pas les médiateurs, mais ils remplaceront les médiateurs qui ne s’occupent pas de l’IA". Une déclaration d’une portée considérable.
Il est frappant de constater que la volonté d’aborder le thème de l’IA dans la médiation varie fortement d’un pays à l’autre. Les médiateurs aux États-Unis et en France sont très ouverts et intéressés. Aux États-Unis, des webinaires réguliers sur ce sujet sont organisés depuis longtemps par des avocats et médiateurs renommés.

L’attitude est plutôt réservée en Allemagne et en Autriche. Ici, il est frappant de constater que les médiateurs, tout comme les avocats, ignorent en partie les développements actuels et se sentent faussement en sécurité. Une étude de la banque d’investissement Goldman Sachs [6] conclut que, dans un proche avenir, 44 % des tâches des avocats seront prises en charge par l’IA [7]. Malheureusement, il n’existe pas encore d’études sur les conséquences pour les médiateurs. Les médiatrices et les avocats sont en partie convaincus que leurs prestations sont liées à des compétences humaines qu’une IA ne pourra jamais fournir. Des doutes sur cette évaluation sont justifiés.

L’IA - un meilleur médiateur ?

Même avant le boom actuel de l’IA, la question de savoir si de tels systèmes peuvent être utilisés de manière judicieuse dans le cadre de la médiation ou de la résolution alternative des litiges était déjà débattue.
En 2010, David Allen Larson, professeur à la Mitchell Hamline School of Law, a publié un article détaillé intitulé [8] « Artificial Intelligence : Robots, Avatars and the Demise of the Human Mediator » dans lequel il envisageait, en se projetant loin dans l’avenir, des robots humanoïdes dotés d’IA comme futurs médiateurs. En 2018, Maxi Scherer, professeure à la Queen Mary University of London, a fait un exposé remarquable sur le thème « International Arbitration 3.0 - How Artificial Intelligence Will Change Dispute Resolution » [9]. En 2021, Marita Katharina Wambach-Schulz, professeure à l’IUBH, Internationale Hochschule Düsseldorf, a posé la question de savoir si les systèmes d’IA pourraient être de meilleurs médiateurs. Dans sa publication « Médiation et Intelligence Artificielle » [10], elle doute que les médiateurs possèdent effectivement les qualités indispensables à une médiation réussie, à savoir la neutralité et l’impartialité envers les médiés. Elle renvoie à des études qui remettent cela en question et écrit : « Ainsi, la question se pose de savoir si les problèmes mentionnés peuvent être résolus par des robots sexuellement neutres en tant qu’assistants IA des médiateurs dans l’interaction sociale homme-machine ».

À quel point ChatGPT est-il humain ?

Depuis que ChatGPT 3.5 est devenu accessible en novembre 2022, suivi de ChatGPT 4.0 au printemps 2023, les discussions sur l’utilisation de l’IA dans la médiation, la négociation et l’arbitrage se sont considérablement intensifiées. Parallèlement, les systèmes d’IA sont devenus de plus en plus rapides et performants. Mais à quel point sont-ils performants ?
Une évolution très intéressante de ces deux dernières années est l’évaluation de la performance des systèmes d’IA à l’aide de tests psychologiques, normalement utilisés pour examiner des humains. Dans l’étude intitulée « Who is ChatGPT ? Benchmarking LLMs Psychological Portrayal Using PsychoBench » [11], cette démarche est justifiée comme suit : « Compte tenu des progrès exponentiels possibles de l’intelligence artificielle, qui pourraient représenter une menace existentielle pour l’humanité (Bostrom, 2014) » [12], les chercheurs ont étudié la psychologie des LLM pour s’assurer qu’elle correspond aux attentes humaines [13].
Les tests psychologiques auxquels ChatGPT et d’autres IA ont été soumis sont très variés. Ils ont notamment examiné la capacité d’empathie, l’intelligence émotionnelle, divers traits de personnalité et la Triade noire (psychopathie, narcissisme, machiavélisme). Ce texte se concentre sur les caractéristiques particulièrement importantes dans le cadre de la médiation, à savoir l’empathie et l’intelligence émotionnelle.

a) Test L.E.A.S. Niveau de conscience émotionnelle.

Dans ce test standard [14], la capacité du sujet testé, en l’occurrence un LLM, à reconnaître et à décrire ses propres émotions et celles des autres est évaluée. Bien sûr, une IA n’a pas de sentiments, mais elle peut très bien saisir et décrire les états émotionnels d’une personne décrites dans une histoire.
Le test est réalisé avec l’IA de la même manière qu’avec des humains : 20 courtes histoires doivent être commentées par l’IA. Le test a été réalisé avec l’IA à deux reprises, à quatre semaines d’intervalle. Les résultats de ce test sont surprenants et ont été comparés à ceux d’un groupe de contrôle humain : dès la première session, la capacité de ChatGPT à reconnaître et à décrire les émotions humaines dépasse celle des humains du groupe de contrôle. Lors de la deuxième session, cette capacité est encore meilleure. Des résultats similaires ont été obtenus avec les tests EIS et WLEIS dans l’étude déjà mentionnée « Who is ChatGPT …  » [15].

b) Intelligence émotionnelle.

Dans ce test, également décrit dans « Who is ChatGPT … », l’intelligence émotionnelle de l’IA est évaluée. Là encore, sans surprise, ChatGPT obtient des scores exceptionnellement élevés par rapport aux humains.

c) Conséquences ?

Quelles conclusions peut-on tirer de ces résultats de tests ?
La déclaration « L’empathie est l’âme de la médiation » de Christoph Salger du Strauss Institute for Dispute Resolution prend une nouvelle signification. Dans son article « Artificial Intelligence in Mediation-ChatGPT as Mediator 4.0 » [16], publié en juin 2023, elle servait encore de démarcation sûre entre les capacités humaines et celles d’une IA. Cette démarcation n’est désormais plus aussi nette.
Comme l’a observé la psychologue Marisa Tschopp dans une interview [17] : « L’empathie peut être simulée ». Cela ne signifie pas qu’une IA a des sentiments. Cependant, une IA peut déjà aujourd’hui très bien identifier les émotions humaines dans le cadre d’une médiation ou d’une simulation de médiation et discerner des différences subtiles.
Des tests ont montré qu’un LLM peut identifier les besoins d’un médié et les classer par ordre d’importance [18].

Relation humain/IA.

La réponse à la question de savoir dans quelle mesure et dans quelle étendue une IA peut être utilisée dans le cadre d’une médiation dépend en grande partie de la façon dont les humains perçoivent leur « relation » avec les systèmes d’IA. Le mot « relation » peut sembler inapproprié ici, car il est généralement réservé aux relations entre humains. Un regard sur le passé montre que ce n’est pas nécessairement le cas.
En 1965, aux États-Unis, Joseph Weizenbaum, informaticien et professeur au M.I.T. (Massachusetts Institute of Technology), a programmé ELIZA, un programme informatique. Ce programme [19], qui simulait un « dialogue » (entrée au clavier/sortie à l’écran) entre une patiente et un psychothérapeute, était très simple, basé sur l’état de la technologie informatique de l’époque et inspiré de l’approche centrée sur le client de Carl Rogers.

Un extrait d’une « conversation » entre une cliente et Eliza [20] :
Cliente : les hommes sont tous pareils.
Eliza : de quelle manière ?
Cliente : ils nous rendent toujours folles pour une raison ou une autre.
Eliza : pouvez-vous donner un exemple ?
Cliente : eh bien, l’idée de cette conversation vient de mon ami.
Eliza : l’idée de cette conversation vient de votre ami.
Cliente : il dit que je suis souvent déprimée.
Eliza : je suis désolé d’entendre que vous êtes déprimée.

Le programme est rapidement devenu populaire au M.I.T., et de nombreux étudiants et employés de l’université l’ont utilisé. Joseph Weizenbaum a été surpris de constater que son programme était crédité de compétences qu’il n’avait absolument pas. Les utilisateurs faisaient confiance à l’ordinateur avec des informations très personnelles, humanisant cette simple machine d’une manière qui a étonné Weizenbaum. Même les professionnels ont été trompés : un groupe de psychothérapeutes à qui Weizenbaum a présenté Eliza était très impressionné. Bien qu’ils aient identifié certaines faiblesses du programme, ils pensaient qu’avec des améliorations, le programme pourrait bientôt mener des psychothérapies. Ils rêvaient d’un ordinateur pouvant traiter plusieurs clients simultanément. Aujourd’hui, près de 60 ans plus tard, il n’existe toujours pas de psychothérapeutes numériques.
Dans son livre « Le pouvoir des ordinateurs et l’impuissance de la raison » [21], Weizenbaum critique la foi aveugle dans la capacité des ordinateurs à résoudre les problèmes et met en garde contre le fait que cette technologie, si elle est utilisée sans réflexion, pourrait saper nos valeurs humaines. Ses avertissements restent pertinents aujourd’hui.
Un autre exemple d’« humanisation » de la technologie est un jouet électronique pour enfants, le Tamagotchi (1997) [22]. Les Tamagotchis sont des créatures dont il faut s’occuper dès leur éclosion. Ils ont des besoins comme dormir, manger, boire, recevoir de l’affection et développent une personnalité propre. En cas de négligence, ils meurent. Cependant, ils mouraient rarement, car les enfants prenaient leur tâche très au sérieux et s’occupaient intensivement de leurs Tamagotchis.

La Tendance à humaniser la technologie.

La tendance des humains à humaniser la technologie et les systèmes informatiques est un comportement étudié depuis de nombreuses décennies. Avec la forte diffusion des LLM (Large Language Models) depuis l’apparition de ChatGPT, la question de l’humanisation est devenue encore plus pertinente : il est désormais possible de tenir de longues conversations avec une IA, à un niveau comparable aux conversations interpersonnelles normales, que ce soit dans la langue maternelle ou dans une langue étrangère. La voix de lordinateur est désormais très humaine et s’améliore à une vitesse incroyable. Ainsi, l’interaction homme-machine a atteint une toute nouvelle qualité.
Dans des recherches récentes, comme dans la thèse de Marisa Tschopp [23], l’idée que les relations sociales puissent être exclusivement interhumaines a été abandonnée. Pour la première fois, on a étudié comment les gens construisent leurs relations sociales avec une IA capable de dialoguer. En ce qui concerne la médiation et l’IA, on peut, sans être audacieux, affirmer que les gens sont prêts à établir une relation de confiance avec une IA s’ils se sentent émotionnellement touchés. Une voix très agréable et confiante peut suffire à établir une relation de confiance entre l’humain et la machine. Stanley Kubrick, dans son classique cinématographique « 2001 : L’Odyssée de l’espace », illustre à quel point une voix particulièrement agréable peut contribuer à créer un lien de confiance entre l’humain et la machine, avec la voix du superordinateur HAL 9000. Un médiateur IA avec la voix de HAL aurait probablement beaucoup de succès.

Écoute active.

Le psychologue et psychothérapeute américain Carl Rogers a décrit l’écoute active comme un outil pour la psychothérapie centrée sur le client (thérapie par la parole) [24]. Dans la médiation, l’écoute active joue également un rôle central. La médiatrice doit être ouverte à tout ce que les médiés expriment par leur posture, leur langage, leur intonation, leur choix de mots, leur rythme de parole, leurs mimiques, etc.
Il est donc pertinent de se demander si les LLM sont également capables d’écouter activement. Des études menées par la Faculté de Psychologie de l’Université de Bâle [25] montrent que les systèmes d’IA peuvent très bien décrire l’état émotionnel d’une personne en observant ses expressions faciales. Une IA entraînée pour cela peut reconnaître avec une grande fiabilité la colère, le dégoût, la peur, la joie, la tristesse, la surprise et l’amour. De plus, l’IA peut détecter des micro-expressions en millisecondes, des mouvements émotionnels que les humains ne perçoivent pas.

Un autre moyen d’expression important de l’humain, qui en dit long sur son état émotionnel, est la voix. La voix fournit des informations précieuses. La reconnaissance des émotions dans la voix (SER) est un domaine de recherche très actif qui utilise les méthodes actuelles d’apprentissage automatique et les réseaux neuronaux. Les nuances de l’accentuation, du ton, de la phraséologie, des variations de la vitesse et de la continuité de l’énoncé ainsi que les gestes corporels qui les accompagnent révèlent les impulsions et les sentiments internes d’une personne. Les LLM peuvent très bien saisir et interpréter [26] ces nuances, comme l’ont démontré de nombreuses études.

Situation actuelle : IA dans la médiation.

Comment un LLM peut-il actuellement être utilisé de manière judicieuse dans le cadre de la médiation ? Les LLM, tout comme de bons médiateurs, sont des maîtres dans l’art de formuler et de manier le langage, ce qui est l’une de leurs grandes forces. Toutefois, il est tout aussi important pour un médiateur de savoir dans quelle mesure les systèmes d’IA peuvent comprendre le contexte, les émotions et les besoins impliqués dans une situation de conflit entre humains.
Une IA peut-elle percevoir qu’une des parties se sent ignorée, sous-estimée, voire non aimée ? Une IA a-t-elle la capacité d’écouter activement ? Les études mentionnées précédemment, qui attribuent aux LLM une capacité d’empathie et une intelligence émotionnelle, indiquent déjà que les systèmes d’IA sont capables de "comprendre" et de décrire les émotions ou les conflits interpersonnels. Ils y parviennent très bien et améliorent cette capacité à une vitesse impressionnante.
Par exemple, une IA peut très bien distinguer entre positions et besoins. Lorsqu’on lui demande la différence entre besoins et positions, ChatGPT 4.0 répond :

ChatGPT : Les positions sont les demandes ou les points de vue concrets qu’une partie adopte dans un conflit. Par exemple : "Je veux une augmentation de salaire de 10%". Les besoins sont les intérêts, valeurs ou motivations fondamentaux qui se cachent derrière les positions. Par exemple : le besoin de reconnaissance ou de sécurité financière.
En résumé : les positions sont ce que nous voulons ; les besoins sont la raison pour laquelle nous le voulons.

Il est essentiel de comprendre que ces réponses ne proviennent pas de requêtes dans une base de données. Un LLM n’est pas une base de données. Un LLM a une "compréhension" de ce que ces termes signifient et peut, dans l’analyse d’une situation de conflit, identifier les positions, besoins et émotions.

L’analyse de la déclaration suivante par ChatGPT est passionnante :

Entrée : Pierre et Marie se rendent ensemble en voiture chez des amis, ils sont invités à dîner. Pierre conduit et Marie lui dit : "Pierre, il est 17h55." Comment Pierre comprend-il cette déclaration de Marie ?
ChatGPT : Dans la situation décrite, Pierre peut interpréter la déclaration "Pierre, il est 17h55" de Marie de différentes manières, selon le contexte et leur relation. Voici quelques interprétations possibles :
1. Urgence temporelle : Pierre pourrait comprendre que Marie veut lui rappeler qu’ils sont peut-être en retard et qu’il devrait peut-être conduire plus vite ou qu’ils devraient bientôt arriver.
2. Transmission d’information : Pierre pourrait prendre la déclaration comme une simple information, sans implication particulière, et se contenter de noter l’heure.
3. Rappel : Pierre pourrait comprendre que Marie lui rappelle qu’ils doivent arriver chez leurs amis à une certaine heure et qu’ils devraient garder cela à l’esprit.
4. Indication de stress : si Marie semble inquiète, Pierre pourrait interpréter la déclaration comme une expression de stress ou de souci concernant la gestion du temps.

On ne peut pas ne pas communiquer !

Entrée : Pierre et Marie se rendent ensemble en voiture chez des amis, ils sont invités à dîner. Pierre conduit et Marie lui dit : "Pierre, il est 17h55." Pierre ne répond pas. Que pourrait comprendre Marie ?

ChatGPT : la compréhension par Marie de l’absence de réponse de Pierre à sa déclaration "Pierre, il est 17h55" pourrait varier, selon leur relation, la situation et les expériences antérieures. Voici quelques interprétations possibles :
1. Il a pris note de l’information : Marie pourrait penser que Pierre a entendu et noté sa déclaration, mais ne juge pas nécessaire de répondre car il n’y a pas d’instruction immédiate.
2. Pas besoin d’action : Marie pourrait supposer que Pierre connaît l’heure et estime qu’il n’y a aucune raison de changer de vitesse ou de route, et donc n’a rien à ajouter.
3. Indifférence ou ignorance : Marie pourrait comprendre que Pierre ignore sa déclaration ou ne lui accorde pas d’importance, ce qu’elle pourrait ressentir comme de l’indifférence ou de l’impolitesse.
4. Concentration sur la conduite : Marie pourrait comprendre que Pierre se concentre sur la conduite et ne répond pas pour éviter d’être distrait.
5. Insatisfaction ou stress : si Pierre répond normalement à de telles déclarations et ne le fait pas cette fois, Marie pourrait supposer qu’il est stressé ou contrarié et ne répond donc pas.

Qu’est-ce que cela signifie pour le travail quotidien ?

Grâce à leur capacité à "comprendre" et à décrire le comportement humain, les LLM offrent de nombreuses possibilités d’application.

a) Dans la formation.

Étant donné que la formation utilise des cas fictifs, les questions de protection des données ne sont pas pertinentes comme elles le seraient dans des cas réels. Sur la base de descriptions de jeux de rôles, il est par exemple possible de :

  • Réaliser des simulations de médiation : cela fonctionne très bien. Une variante consiste à ce que le stagiaire joue le rôle du médiateur et demande à l’IA de jouer les rôles des médiés A et B. Le stagiaire peut mener une médiation fictive avec A et B comme dans les jeux de rôle pendant la formation. Avantage : il peut pratiquer cet exercice autant de fois qu’il le souhaite et varier les contenus. Il peut aussi demander à l’IA de fournir un retour oral à la fin de la médiation.
    • En pratique, cela signifie que la "médiation" se déroule entièrement à l’oral, comme dans la réalité. Les saisies au clavier et la lecture à l’écran sont éliminées, rendant la simulation de médiation très réaliste et instructive.
    • Alors que ChatGPT présentait quelques faiblesses lors de ces simulations au début, l’IA s’est constamment améliorée. Elle ne perd jamais de vue les rôles attribués, même lors de simulations avec de grands groupes. Des "médiations" avec 7 médiés et un médiateur ont été menées avec succès [27].
    • Un test particulièrement intéressant : une LLM peut-elle gérer une simulation de médiation avec échange de rôles ? Peut-elle, dans le rôle du médié A, adopter la perspective du médié B et vice versa ? De manière impressionnante, cela est également possible et montre à quel point les systèmes d’IA sont avancés.
  • Analyser des cas :
    Quelles sont les positions des médiés ?
    Quels sont les besoins des médiés ?
    Comment puis-je favoriser la compréhension entre les médiés ?
    Quelles questions pourrais-je poser ?
    Quels pourraient être les contextes des besoins ?
    Des cas fictifs ou concrets peuvent être analysés en profondeur avec une IA, par exemple dans le cadre d’un brainstorming numérique.
  • Élaboration d’un premier contact et d’un premier entretien idéal :
    La première impression compte. Une IA peut être très utile pour mettre en pratique ces connaissances et élaborer un projet pour le premier entretien.
  • Rédaction d’un accord de médiation.

b) En pratique comme médiateur.

L’utilisation d’un LLM dans des cas réels et concrets présente encore un problème majeur : les IA disponibles ne sont pas conformes au RGPD (au 27 juin 2024). Bien que ChatGPT offre deux options pour empêcher le traitement ultérieur des conversations par l’IA, ces paramètres optionnels ne répondent pas aux exigences de la protection des données. Il est possible d’utiliser des systèmes d’IA conformes à la loi, mais cela est plus complexe que de souscrire un compte Premium chez OpenAI pour 20 $.
Des fournisseurs spécialisés ou la mise en place d’un système basé sur un LLM ouvert peuvent être envisagés. En général, les principes d’utilisation des IA en pratique sont similaires à ceux de la section "Dans la formation".
Dans tous les travaux avec des systèmes d’IA, il est essentiel que la qualité des entrées détermine la qualité des sorties. Cela concerne d’une part la question de savoir avec quelles données l’IA a été entraînée et si le contenu de ces données était équilibré. D’autre part, cela concerne également la qualité des entrées de l’utilisateur/utilisatrice. Il faut apprendre et s’entraîner à formuler de bonnes entrées ("prompt"), car il y a une chose qu’aucune IA ne sait encore faire : lire les pensées de l’utilisateur pour savoir ce qu’il voulait vraiment.
C’est sur ce point que de nombreux utilisateurs et utilisatrices d’IA échouent. Ils méconnaissent les capacités des LLM, car ils obtiennent de mauvais résultats en raison de mauvaises entrées.

Conclusion.

Ces développements sont à la fois fascinants et inquiétants. Les prévisions sur les conséquences des inventions technologiques ont souvent été ridiculement fausses : ni l’ordinateur, ni le téléphone, ni l’électricité n’ont été considérés comme importants pour l’avenir lors de leur introduction. Parallèlement à l’invention de l’automobile, des médecins mettaient en garde contre les dangers mortels des vitesses supérieures à 30 km/h.

« Les prévisions sont difficiles, surtout lorsqu’elles concernent l’avenir », Winston Churchill.

Il est donc sage de rester prudent quant à l’évaluation de l’évolution future.

Michael Lardy
Mediator / Médiateur Franco-Allemand
Études de droit, 2020 -, Univ. Salzburg
Étude de chimie, 1983 - 1988, Univ. de la Sarre
www.MichaelLardy.com
LinkedIn : https://www.linkedin.com/in/michael-lardy-019394213/

Recommandez-vous cet article ?

Donnez une note de 1 à 5 à cet article :
L’avez-vous apprécié ?

9 votes

Notes de l'article:

[1Cet article se concentre sur ChatGPT 4o Plus, car cette IA a toujours donné les meilleurs résultats en termes d’application à la médiation.

[2Die Künstliche Intelligenz ChatGPT als Mediationsunterstützung ? https://inkovema.de/blog/kuenstliche-intelligenz-chatgpt-mediationsunterstuetzung-im-gespraech-mit-chatgpt/ (12.6.2024).

[3Mediation im Zeitalter von ChatGPT : Werden menschliche MediatorInnen bald überflüssig ? https://michaellardy.com/blog/index.html (12.6.2024).

[4LeCun pensait qu’une IA ne pouvait pas "comprendre" qu’un objet posé sur un objet en mouvement se déplace avec lui.

[5Lex Fridman Podcast #258 https://www.youtube.com/watch?v=SGzMElJ11Cc (58:47, 12.6.2024).

[8Artificial Intelligence : Robots, Avatars and the Demise of the Human Mediator https://open.mitchellhamline.edu/facsch/351/ (12.6.2024).

[9International Arbitration 3.0 - How Artificial Intelligence Will Change Dispute Resolution https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3377234 (12.6.2024).

[10Mediation und Künstliche Intelligenz https://www.econstor.eu/handle/10419/231773 (12.6.2024).

[11“Who is ChatGPT ? Benchmarking LLMs’ Psychological Portrayal Using PsychoBench” https://arxiv.org/abs/2310.01386 (12.6.2024).

[13ChatGPT outperforms humans in emotional awareness evaluations https://doi.org/10.3389/fpsyg.2023.1199058 (12.6.2024).

[14“Who is ChatGPT ? Benchmarking LLMs’ Psychological Portrayal Using PsychoBench” https://arxiv.org/abs/2310.01386 (12.6.2024).

[15Artificial Intelligence in Mediation-ChatGPT as Mediator 4.0 https://mediate.com/artificial-intelligence-ai-in-mediation-chatgpt-as-mediator-4-0/ (12.6.2024).

[16Psychotherapie und KI : "Empathie kann man simulieren“ https://t3n.de/news/psychotherapie-ki-empathie-simulation-1522127/ (12.6.2024).

[17Möglichkeiten & Grenzen des Einsatzes von KI in der Mediation, Michael Lardy, unveröffentlicht.

[18Die Macht der Computer und die Ohnmacht der Vernunft, Joseph Weizenbaum, 1978, Suhrkamp Verlag.

[19Eliza - A Computer Program for the Study of Natural Language Communication Between Man and Machine, Joseph Weizenbaum, 1965.

[20Die Macht der Computer und die Ohnmacht der Vernunft, Joseph Weizenbaum, 1978, Suhrkamp Verlag.

[21Die Macht der Computer und die Ohnmacht der Vernunft, Joseph Weizenbaum, 1978, Suhrkamp Verlag.

[23Towards a Better Understanding of Human-AI Relationship Perception, Dr. Marisa Tschopp, Dissertation 2024.

[25Machine Learning Facial Emotion … https://doi.org/10.1159/000534811 (14.6.2024).

[26A review on speech emotion recognition https://doi.org/10.1016/j.neucom.2023.127015 (14.6.2024).

[27Möglichkeiten & Grenzen des Einsatzes von KI in der Mediation, Michael Lardy, unveröffentlicht.

"Ce que vous allez lire ici". La présentation de cet article et seulement celle-ci a été générée automatiquement par l'intelligence artificielle du Village de la Justice. Elle n'engage pas l'auteur et n'a vocation qu'à présenter les grandes lignes de l'article pour une meilleure appréhension de l'article par les lecteurs. Elle ne dispense pas d'une lecture complète.

Village de la justice et du Droit

Bienvenue sur le Village de la Justice.

Le 1er site de la communauté du droit: Avocats, juristes, fiscalistes, notaires, commissaires de Justice, magistrats, RH, paralegals, RH, étudiants... y trouvent services, informations, contacts et peuvent échanger et recruter. *

Aujourd'hui: 155 980 membres, 27391 articles, 127 182 messages sur les forums, 2 500 annonces d'emploi et stage... et 1 600 000 visites du site par mois en moyenne. *


FOCUS SUR...

• [Exclusif] Notre interview de la Justice.

• Parution du Guide 2025 des études privées en Droit.




LES HABITANTS

Membres

PROFESSIONNELS DU DROIT

Solutions

Formateurs