I nesten to år ble den lille jenta på bildet filmet for å lære mer om hvordan hun lærte sine første ord.(Foto: Wai Keen Vong)
I to år fulgte forskerne med på hvordan denne jenta lærte å snakke
Amerikanske forskere filmet den lille jenta på bildet, Sam, i nesten to år og skapte en AI-modell som kan hjelpe oss å forstå hvordan barn lærer og forstår sine første ord.
IdaEriksenJOURNALIST, VIDENSKAB.DK
Publisert
Ball, fugl, mamma og pappa. Et barns
første ord er ekstremt viktige. Kanskje spesielt for foreldre som ønsker at
barna skal kunne uttrykke sine behov så tidlig som mulig.
Men hvordan lærer og forstår barn egentlig
sine første ord?
Det har et amerikansk forskerteam kastet
lys over i en ny studie publisert i tidsskriftet Science. De presenterer en ny
modell basert på kunstig intelligens (AI) som brukte kameraopptak av et barn
fra alderen 6 til 26 måneder til å koble det barnet ser med ord fra foreldrene.
Modellen er basert på en algoritme som
kobler sammen ting barnet ser, for eksempel en gryte, et par sko, en bøtte, en
ball eller lignende, med utsagn fra for eksempel foreldre som snakker med
barnet som spiser, leker eller blir lest for.
Et eksempel kan være et barn som sitter på
mammas fang og ser i en bok. Moren sier «se, der er det en baby» og peker på et
bilde av en baby i boken. Etter noen få repetisjoner begynner barnet å peke på
bildet av babyen når moren sier «baby», noe som indikerer at barnet forstår
sammenhengen mellom bildet og ordet.
Her er Sam, filmet i nesten to år, mens moren leser en bok for henne. (Video: Jonathan King)
AI-modellen kan, basert på kameraopptaket
av situasjonen, koble ord til bestemte bilder og for eksempel skille kategorien
«baby» fra kategorien «katt». På denne måten gir modellen oss kunnskap om
hvilke objekter og ord barnet kobler sammen.
Ifølge hovedforskeren bak studien, Brenden
Lake, gir studien også nye og verdifulle perspektiver på den klassiske debatten
om hvordan barn lærer ord.
Lake er førsteamanuensis ved Centre for
Data Science ved New York University og uttaler seg i en pressemelding.
Studien er som nevnt basert på opptak av
ett enkelt barn som ble utstyrt med et kamera festet til hodet i 1 prosent av
sin våkne tid over en periode på om lag to år. Dette resulterte i 61,5 timer
med opptak, noe som tilsvarer rundt en kvart million ord som har blitt knyttet
til det barnet ser og samhandler med i hverdagen.
– Selv om studien bare ble gjennomført på
ett enkelt barn i 1 prosent av barnets våkne timer, er det likevel det hittil
største datasettet av denne typen, og det gir oss et unikt perspektiv på
hvordan vi kan studere tidlig språktilegnelse, sier Wai Keen Vong, forsker ved
Center for Data Science ved New York University og medforfatter av studien.
Kan vise hvordan vi lærer språk
Den nye studien er absolutt interessant,
mener Laila Kjærbæk, førsteamanuensis ved Institutt for kultur og lingvistikk
ved Syddansk Universitet.
– De siste tiårene har vi diskutert om
barn har en medfødt disposisjon for å utvikle språk, eller om språk er noe de
tilegner seg gjennom generelle læringsmekanismer, forklarer hun.
Et medfødt anlegg betyr ikke at et barn er
født med et komplett språk, understreker Kjærbæk.
– I stedet er det en idé om at det finnes
et område i hjernen som er spesielt designet for språk, og at noen
grunnleggende språklige strukturer er medfødte. Den andre grenen av forskningen
går ut på at språk tilegnes gjennom de samme kognitive evnene som vi bruker til
å tilegne oss alt annet. For eksempel kategorisering, der barnet kobler sammen
alt som tilhører kategorien «hund» eller «fugl», sier hun.
– En datamodell som den i den nye studien
kan hjelpe oss med å komme nærmere et svar på en av de store debattene i
språkforskningen, nemlig spørsmålet om arv versus miljø.
Ifølge de amerikanske forskerne tyder
resultatene fra den nye studien på at barn først og fremst lærer via en enkel
læringsmekanisme, nemlig assosiativ læring, og at de er mindre avhengige av
medfødte anlegg for å lære språk.
– Studien vår viser at selv den enkleste
assosiative læringsmekanismen, å assosiere ord med ting, er nok for tilegnelse
av grunnleggende språkferdigheter, sier Wai Keen Vong.
Annonse
Svakheter ved studien
Ifølge Isabelle Augenstein, professor ved
Institutt for datavitenskap ved Københavns Universitet, har studien flere
betydelige svakheter.
– Studien er utført på ett enkelt barn,
noe som gjør det svært vanskelig å generalisere om hvordan barn utvikler språk.
I tillegg analyserer ikke forskerne spesifikt hvilke ord som blir sagt. Det
trengs derfor flere studier med flere barn før vi kan generalisere, sier hun.
Unike data
Ifølge Tuukka Routsalo, førsteamanuensis i
maskinlæring ved Institutt for datavitenskap ved Københavns Universitet, er
teknologien bak den nye studien allerede kjent.
– Modellen er ikke revolusjonerende i seg
selv. Studien tar heller ikke for seg hva barnet faktisk lærer, eller hvordan
informasjonen lagres i hjernen, forklarer han:
– Det nye er at dataene er basert på
reelle erfaringer fra barnets hverdag. Det er veldig spennende.
Han får støtte av språkforsker Laila
Kjærbæk.
– Vanligvis undersøker man hvilke ord barn
forstår ved å be foreldrene skrive dem ned i et spørreskjema. Men foreldrene
vet ikke hva barnet forstår og ikke forstår. Derfor er denne metoden veldig
interessant som et supplement, fordi den gjør det mulig å ta utgangspunkt i det
barnet ser og koble det til spesifikke ord og lyder, sier hun.
I tillegg kan AI-modellen effektivisere
forskningen fordi den er i stand til å skape mønstre og sammenhenger på tvers
av millioner av ord og bilder av ting.
– Generelt er studier av barns
språkforståelse ekstremt ressurskrevende. Bare en times videoopptak må først
transkriberes og analyseres av en eller flere forskere, sier Laila Kjærbæk og
avslutter:
– Derfor er AI-modellen veldig spennende
fordi den kan gjøre det mulig å koble sammen ord og synsinntrykk på en langt
mer effektiv måte enn om jeg eller en kollega skulle gjøre det fra bunnen av.
Referanse:
Wai Keen Vong mfl.: Grounded
language acquisition through the eyes and ears of a single child. Science, 2024. (Sammendrag) Doi/10.1126/science.adi1374