Education et technologie : La révolution de l'Intelligence Artificielle (IA), une épée à double tranchant pour les enfants

Wednesday 09 October 2024

Il est difficile de maximiser les avantages de l'IA pour l'éducation et la croissance des enfants, tout en assurant leur vie privée, leur développement sain et leur bien-être émotionnel. Anna Collard attire l’attention sur des cas de dérive possibles. 

En seulement deux ans, l'intelligence artificielle a connu une révolution. Les outils d'intelligence artificielle générateurs comme ChatGPT, Gemini de Google et Copilot de Microsoft sont rapidement devenus partie intégrante de notre vie quotidienne. Avec Meta intégrant des chatbots IA dans des plateformes populaires comme WhatsApp, Facebook et Instagram, la technologie est plus accessible que jamais. Pour les enfants grandissant dans ce monde piloté par l'IA, les implications sont à la fois enthousiasmantes et préoccupantes, prévient Anna Collard, vice-présidente principale de la stratégie de contenu et évangéliste chez KnowBe4 AFRICA.

"Ces outils IA offrent des opportunités sans précédent pour l'apprentissage, la créativité et la résolution de problèmes. Les enfants peuvent les utiliser pour créer des œuvres d'art, composer de la musique, écrire des histoires et même apprendre de nouvelles langues grâce à des méthodes interactives passionnantes", explique Collard. "La nature personnalisée des chatbots IA, avec leur capacité à fournir des réponses rapides et des réponses sur mesure, les rend particulièrement attrayants pour les jeunes esprits."

Cependant, comme avec toute technologie transformatrice, l'IA apporte avec elle toute une série de risques potentiels que les parents, les éducateurs et les décideurs politiques doivent examiner attentivement. Des problèmes de confidentialité aux dangers de la surconfiance en passant par la propagation de la désinformation et les effets psychologiques possibles, les défis sont importants. "Alors que nous entrons dans cette ère pilotée par l'IA, nous devons peser avec soin le potentiel incroyable contre les risques réels", prévient Collard. "Notre défi est de tirer parti de la puissance de l'IA pour enrichir la vie de nos enfants tout en préservant simultanément leur développement, leur vie privée et leur bien-être général."

Préoccupations en matière de confidentialité  

"Les parents doivent savoir que même s'ils semblent inoffensifs, les chatbots collectent des données et peuvent les utiliser sans consentement approprié, ce qui peut entraîner des violations de la vie privée."

L'ampleur de ces risques de confidentialité varie grandement. Selon un rapport de l'Autorité canadienne des normes, les menaces vont de problèmes relativement peu importants, comme l'utilisation des données d'un enfant à des fins de publicité ciblée, à des préoccupations plus graves. Parce que les chatbots peuvent suivre les conversations, les préférences et les comportements, ils peuvent créer des profils détaillés des utilisateurs enfants. Lorsqu'ils sont utilisés à des fins malveillantes, ces informations peuvent permettre des tactiques de manipulation puissantes pour répandre la désinformation, la polarisation ou le harcèlement.

Collard souligne en outre que les modèles de langage de grande taille n'ont pas été conçus avec les enfants à l'esprit. Les systèmes d'IA qui alimentent ces chatbots s'entraînent sur d'énormes quantités de données orientées adultes, ce qui peut ne pas tenir compte des protections spéciales nécessaires pour les informations des mineurs.

Surconfiance. Une autre préoccupation pour les parents est que les enfants puissent développer un lien émotionnel avec les chatbots et leur faire trop confiance, alors qu'en réalité, ils ne sont ni humains ni leurs amis. "L'effet de surconfiance est un phénomène psychologique étroitement lié à la théorie de l'équation des médias, qui affirme que les gens ont tendance à anthropomorphiser les machines, c'est-à-dire à leur attribuer des attributs humains et à développer des sentiments pour elles", commente Collard. "Cela signifie aussi que nous surestimions les capacités d'un système IA et lui accordons trop de confiance, devenant ainsi complaisants."

La surconfiance dans l'IA génératrice peut conduire les enfants à prendre de mauvaises décisions car ils peuvent ne pas vérifier les informations. "Cela peut compromettre la précision et entraîner de nombreux autres résultats négatifs potentiels", explique-t-elle. "Lorsque les enfants s'appuient trop sur leur assistant IA génératif, ils peuvent devenir complaisants dans leur pensée critique, et cela signifie aussi qu'ils peuvent réduire les interactions en face à face avec de vraies personnes."

Informations inexactes et inappropriées. Les chatbots IA, malgré leur sophistication, ne sont pas infaillibles. "Lorsqu'ils ne savent pas comment répondre, ces outils IA peuvent 'halluciné' en inventant une réponse au lieu de dire simplement qu'ils ne savent pas", explique Collard. Cela peut entraîner des problèmes mineurs comme des réponses incorrectes aux devoirs ou, plus grave, donner de mauvais diagnostics aux mineurs qui se sentent malades.

"Les systèmes IA sont formés sur des informations qui incluent des biais, ce qui signifie qu'ils peuvent renforcer ces biais existants et fournir des informations erronées, affectant la compréhension du monde par les enfants", affirme-t-elle.

Du point de vue d'un parent, le danger le plus effrayant de l'IA pour les enfants est l'exposition potentielle à du matériel sexuel nocif. "Cela va des outils IA qui peuvent créer des images deepfake d'eux ou qui peuvent manipuler et exploiter leurs vulnérabilités, les influençant subliminalement à se comporter de manière néfaste", déclare Collard.

Impact psychologique et réduction de la pensée critique. Comme pour la plupart des nouvelles technologies, une utilisation excessive peut avoir de mauvais résultats. "Une utilisation excessive des outils IA par les enfants et les adolescents peut entraîner une réduction des interactions sociales, ainsi qu'une diminution de la pensée critique", déclare Collard. "Nous constatons déjà ces effets secondaires psychologiques négatifs chez les enfants à travers une utilisation excessive d'autres technologies comme les réseaux sociaux : une hausse de l'anxiété, de la dépression, de l'agressivité sociale, du manque de sommeil et une perte d'interactions significatives avec les autres."

Naviguer dans ce nouveau monde courageux est difficile pour les enfants, les parents et les enseignants, mais Collard pense que les décideurs politiques rattrapent leur retard. "En Europe, bien que cela ne concerne pas spécifiquement les enfants, l'AI Act vise à protéger les droits de l'homme en veillant à ce que les systèmes d'IA soient plus sûrs."

Jusqu'à ce que des garde-fous appropriés soient en place, les parents devront surveiller l'utilisation de l'IA par leurs enfants et contrer leurs effets négatifs en introduisant quelques règles familiales. "En donnant la priorité aux jeux et à la lecture que les enfants ne font pas sur les écrans, les parents aideront à renforcer l'estime de soi de leurs enfants, ainsi que leurs compétences de pensée critique."

Source : KnowBe4.


Publicité

SONDAGE

Dossier des 18 000 tonnes de riz avarié : le Chef de l'Etat a donné instructions aux Ministres de prendre toutes les sanctions contre les responsables au terme de l'enquête. Qu'en pensez-vous?







Nombre de votes:436 Resultat Archive


PORTRAIT


Soumaré Issouf

Professeur titulaire et Directeur du Laboratoire d’ingénierie financière de l’Université Laval (LABIFUL) au Canada

Prof. Issouf SOUMARÉ est Professeur titulaire et Directeur du Laboratoire d’ingénierie financière de l’Université Laval (LABIFUL) au Canada. Il est également le Président-Fondateur de l’INSTITUT SOUMARÉ DE LA FINANCE et de l’UNIVERSITÉ SOUMARÃâ... Lire la suite Voir plus


Publicité

Suivez nous sur facebook

Publicité

Dans la même catégorie

Editeur

Libellule Communication
Abidjan- République de Côte d’Ivoire
Coordonnateur éditorial
Emmanuel Akani
Tel: 45-4010-10
Email: manuakani@yahoo.fr

Service reportage

Email: info@minutes-eco.com

Minutes-eco.com © 2017 Tous droits réservés