AI-litteracitet i matematikämnet

Vad kan AI-litteracitet vara för en matematiklärare? Blir AI-litteracitet annorlunda just i ämnet matematik?

Forskning pågår och det är för tidigt att ge ett exakt och uttömmande svar på dessa frågor. Vad gäller den första frågan har jag sedan 2020 i mitt avhandlingsarbete undersökt förutsättningarna för matematiklärare att undervisa om kritiska perspektiv på AI-algoritmer i relation till deras samhällspåverkan, och jag har börjat ana konturerna av vad AI-litteracitet skulle kunna vara i matematikämnet.   

För den andra frågan så kan det konstateras att AI-algoritmer är matematiska modeller. I matematikämnet ingår det redan att använda, utvärdera och förhålla sig till matematiska modeller. Därför kan AI bli ett tillägg till det innehåll som redan finns. Det blir ytterligare en typ av matematisk modell att diskutera i undervisningen. På så sätt kan AI-litteracitet i matematikämnet särskiljas från andra ämnen.

Tillbaka till den första frågan. Skapandet av AI-algoritmer sker på andra sätt än för de matematiska modeller som i nuläget tas upp i undervisningen. De kraftfullaste maskininlärningsmetoderna för att träna AI verkar genom representationsinlärning, vilket ungefär kan jämföras med att datorerna väljer ut vilka variabler som ska ingå i den matematiska modellen (Goodfellow et al, 2016). Innan representationsinlärning var det människor som ställde upp hypoteser för modellerna och vilka variabler som skulle ingå i dem. Därefter samlade man in data och sist utvärderades hypoteserna med hjälp av statistik. Med moderna maskininlärningsmetoder kan matematiker istället börja med datan, hoppa över att ställa upp hypoteser, och låta datorerna direkt föreslå en färdig modell. AI-litteracitet för matematiklärare bör därför omfatta dessa nya modelleringmetoder samt datans mer framträdande roll i dem.

Här behövs det stannas upp lite. Man skulle kunna tro att modellerna blir rättvisa om en objektiv dator skapar dem. Men modeller är aldrig en perfekt avbildning av verkligheten, de innehåller alltid fel och förenklingar. Dessa fel och förenklingar kan, avsiktligt eller inte, orsaka social orättvisa och fylla en politisk funktion (Skovsmose, 2023). Vidare är inte processen helt automatiserad. Människor fattar fortfarande övergripande designbeslut och finjusterar parametrar. Som en del i detta arbete utvärderas modellerna fortlöpande. På så sätt fungerar människor som grindvakter för vilka modeller som kan anses vara färdigtränande samt vilka fel och brister som kan accepteras. Kort sagt, om AI avspeglar stereotypa förställningar om minoriteter så har en människa, avsiktligt eller ej, tillåtit detta. Lärare behöver kunna synliggöra detta för eleverna. Därför är det föga förvånande att betydelsen av de designval som mänskor gör vid skapandet av modeller (eller tillåter datorer att göra) framträder som en mycket central del av AI-litteracitet för matematiklärare i pågående försöksverksamhet (Andersson et, al, 2023)

Angående datans mer framträdande roll så kan icke önskvärda egenskaper hos träningsdatan uppträda i den färdigtränade AI-algoritmen. Om maskinerna inte får specifika instruktioner så återskapar dem de mönster som finns. Så om en dataingenjör exempelvis tränar en AI att bedöma elevarbeten genom att mata den med tidigare gjorda lärarbedömningar, så finns en risk att den negativt särbehandlar elever som idag upplever negativ särbehandling från sina lärare. Den typen av bias i algoritmisk myndighetsutövning har visat sig mycket svår att göra sig av med. Forskning inom datavetenskap har visat att det för viss typ av träningsdata till och med är matematiskt omöjligt att skapa algoritmer som hörsammar alla etiska principer (Corbett-Davies, et. al, 2017).

Avslutningsvis så kan AI-litteraciet för matematiklärare därför också behöva omfatta kunskap om de samhällsfenom i sig, som träningsdatan kan avspegla. Utan förståelse för hur exempelvis  strukturell rasism uppträder i samhället så blir det svårt att förhålla sig kritiskt till AI-algoritmer och potentiell bias med avseende på etnicitet. Den förståelsen kan behövas både i relation till existerande bias i träningsdatan, men också i relation till eventuell underlåtenhet hos de mänskliga grindvakterna att uppmärksamma och lösa problemen. Sådan kunskap om samhällsfenomen kan vara användbar både för matematikundervisning om AI och matematikundervisning med AI.

Referenser

Andersson, C., H., Andersson, J., Ljung, P. (2023). Mathematical understanding of training data and AI: a lesson plan for critical thinking and ethical perspectives. Workshop på konferens CIEAME74.

Corbett-Davies, S., Pierson, E., Feller, A., Goel, S., & Huq, A. (2017). Algorithmic decision making and the cost of fairness. In Proceedings of the 23rd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining, (pp. 797-806). ACM.

Goodfellow, I., Bengio, J., Courville, A. (2016). Deep Learning. http://www.deeplearningbook.org. MIT Press

Skovsmose, O. (2023). Critical mathematics education. Spinger