L’intelligence artificielle (IA) s’impose chaque jour davantage dans le débat public, mais son adoption est loin de faire l’unanimité. Aux États-Unis, par exemple, seuls 39 % des Américains estiment que l’IA apporte plus de bénéfices que de nuisances. Cette ambivalence se reflète dans deux sphères distinctes mais liées : l’expansion fulgurante du marché de l’IA et son intrusion controversée dans le monde de l’éducation.
Une accélération majeure sur le marché de la formation
Signe de ce dynamisme économique, DataCamp, plateforme leader de l’apprentissage en ligne spécialisée dans les données et l’IA, vient d’annoncer l’acquisition d’Optima. Cette dernière, une société basée à Dubaï, a développé une plateforme d’apprentissage « nativement IA » conçue pour personnaliser l’éducation.
Cette opération marque une étape clé dans la stratégie de DataCamp pour étendre ses capacités d’apprentissage et vise à dépasser les 100 millions de dollars de revenus annuels récurrents (ARR) d’ici 2026. Dans le cadre de cet accord, le fondateur et PDG d’Optima, Yusuf Saber, rejoindra DataCamp en tant que Chief AI Officer et dirigera les opérations mondiales d’IA depuis les Émirats arabes unis. Le reste de l’équipe d’Optima sera également intégré.
La technologie d’Optima, déjà utilisée par de grandes entreprises technologiques du Moyen-Orient, ajuste les leçons en temps réel, adaptant le rythme et les explications au profil unique de chaque apprenant. Elle est déjà intégrée à plusieurs cours de DataCamp, et une intégration complète est prévue d’ici six mois.
Une position de leader renforcée
Avec cette acquisition, DataCamp consolide sa position mondiale dans le perfectionnement des compétences en IA. La société revendique 18 millions d’apprenants et plus de 6 000 entreprises clientes, dont des employés issus de 80 % des entreprises du Fortune 1000, couvrant des secteurs variés comme la technologie (Google, Uber), la finance, ou encore l’industrie (Rolls-Royce, Stanley Black & Decker). L’activité B2B de l’entreprise continue de croître de près de 30 % d’une année sur l’autre.
Yusuf Saber a souligné leur vision commune : « Optima a été conçu pour intégrer l’intelligence directement dans l’expérience d’apprentissage […] En associant l’expérience native IA d’Optima à la plateforme mondiale de DataCamp, je pense que nous avons l’opportunité d’établir une nouvelle norme pour l’apprentissage en ligne. »
L’IA dans la salle de classe : outil ou menace ?
Cette dynamique commerciale, où l’IA est présentée comme un « assistant pour augmenter la productivité » selon les termes de Microsoft pour son Copilot, contraste fortement avec les inquiétudes grandissantes dans le secteur de l’éducation. L’utilisation de l’IA par les étudiants pour leurs travaux de rédaction, tels que les dissertations ou les recherches, est au cœur d’une vive controverse.
Les partisans de son utilisation affirment qu’elle permet de gagner du temps et de réduire le stress. Cependant, de nombreuses voix dans le corps enseignant s’élèvent pour mettre en garde contre une dépendance excessive.
Mira Assaf, professeure adjointe au département d’anglais, exprime ses réserves. « On peut obtenir des faits de l’IA, mais des faits agrégés ne constituent pas une connaissance critique », déclare-t-elle. « L’apprentissage est relationnel, c’est ce frisson corporel que l’on ressent lorsqu’on maîtrise une compétence, ou lorsqu’on éprouve la frustration du débutant. » Elle insiste sur l’importance pour les étudiants d’apprendre « à la dure » plutôt que de toujours compter sur des raccourcis.
Trouver la juste limite
Cet avis est nuancé par les étudiants eux-mêmes. Genesis Washington, étudiante en première année de criminologie et de psychologie, souligne l’importance des limites. « Il faut connaître ses limites avec cet outil », dit-elle. « Demander de l’aide pour des fiches de révision ou un plan, c’est acceptable. En revanche, demander des réponses directes ou la rédaction d’une dissertation, c’est là que se situe la ligne rouge. Il faut des frontières. »
Ce point sur l’établissement de frontières est crucial. Le risque apparaît lorsque l’on commence à dépendre de l’outil pour l’achèvement complet des tâches. Si les étudiants parviennent à utiliser l’IA pour l’assistance plutôt que pour la production totale, la perception négative de l’outil pourrait évoluer.
La perte de la « voix » de l’étudiant
Dan Barden, un autre professeur d’anglais, partage ce scepticisme quant à la qualité de la production. Il note que l’IA, comme ChatGPT, a tendance à produire des textes génériques, « qui ne sonnent ni chaleureux ni humains ».
En demandant à l’IA de rédiger un devoir, l’étudiant efface sa propre voix, un élément que les professeurs attentifs affirment pouvoir facilement détecter. L’une des caractéristiques fondamentales de l’écriture est la voix unique et spéciale de chaque individu, tandis que l’IA produit un ton souvent cliché et impersonnel.
Vers une utilisation responsable
La réalité est que l’IA n’est pas intrinsèquement mauvaise ; elle reste un outil. Il semble possible de trouver un compromis satisfaisant entre son utilisation et le développement de l’esprit critique. L’humanité ne devrait pas fuir l’IA, mais plutôt apprendre à composer avec elle.
Les professeurs pourraient donc autoriser l’IA, à condition d’enseigner simultanément aux étudiants comment l’utiliser « avec responsabilité, dignité, intégrité et maîtrise de soi ». L’enjeu est de développer les compétences fondamentales de résolution de problèmes tout en apprenant à ne pas abuser de la puissance de ces nouveaux outils. L’avenir de l’intelligence artificielle pourrait apporter des changements positifs majeurs dans de nombreux secteurs, et l’éducation ne doit pas rester en marge de cette évolution.