Sawt Falasteen - Google ajoute des garde-fous à son IA pour prévenir la dépendance des jeunes

Euronext
AEX -0.41% 971.88
BEL20 -0.18% 5207.16
PX1 -0.67% 7908.74
ISEQ -0.47% 12090.95
OSEBX 1.34% 2080.56 kr
PSI20 -0.03% 9366.7
ENTEC -0.41% 1416.23
BIOTK -0.68% 3822.13
N150 -0.08% 3940.17
Google ajoute des garde-fous à son IA pour prévenir la dépendance des jeunes
Google ajoute des garde-fous à son IA pour prévenir la dépendance des jeunes / Photo: Gregg Newton - AFP/Archives

Google ajoute des garde-fous à son IA pour prévenir la dépendance des jeunes

Google a dévoilé mardi une série de modifications censées empêcher son assistant d'intelligence artificielle (IA) générative de se comporter en compagnon et de risquer de rendre les jeunes dépendants à son interface.

Taille du texte:

Ces garde-fous doivent notamment interdire à Gemini de "prétendre être humain ou posséder des attributs humains", a expliqué la filiale d'Alphabet dans un communiqué.

Google a ajouté à son modèle des "protections conçues pour prévenir la dépendance émotionnelle, éviter tout langage qui simule l'intimité ou exprime des besoins", a ajouté le groupe de Mountain View (Californie).

Les interactions entre adolescents et applications d'IA générative sont un sujet de préoccupation pour de nombreux parents, associations et élus.

En avril 2025, l'ONG américaine Common Sense a recommandé d'interdire aux mineurs les interfaces d'IA se présentant comme des compagnons virtuels, notamment Character.AI et Replika.

S'ils ne sont pas conçus ou promus de cette façon, les assistants IA les plus connus comme ChatGPT, Claude ou Gemini sont aussi utilisés comme tels par de nombreux adolescents.

Un tiers des 13-17 ans interrogés dans le cadre d'une étude commandée, au printemps 2025, par Common Sense indiquaient se servir de ces logiciels IA pour "des interactions sociales et des relations".

En janvier, Google et Character.AI ont conclu des accords amiables pour solder des poursuites lancées par des familles accusant des robots conversationnels de nuire à des mineurs et d'avoir contribué au suicide de l'un d'entre eux.

Mardi toujours, Google a également annoncé de nouvelles fonctionnalités en matière de santé mentale pour les utilisateurs de Gemini.

Si l'interface détecte des signes selon lesquels l'internaute songe au suicide ou à l'auto-mutilation, elle fera apparaître un lien direct vers un centre de soutien psychologique, en ligne ou téléphonique.

"Gemini peut être un outil utile pour apprendre et trouver de l'information, ce n'est pas un substitut à l'intervention d'un professionnel de santé, à une thérapie ou un soutien en cas de crise", souligne Google.

En cas d'alerte, Gemini a été entraîné "à répondre de façon appropriée en orientant (l'utilisateur) vers une assistance humaine".

A.AlHaj--SF-PST