Kunskap manifesteras i språk. Språkmodeller tränas på ohyggliga mänger text. Därmed får de på sätt och vis kunskap – genom något som snarast är statistik, men eftersom det är sådana ohyggliga mängder och hur modellerna fungerar så känns det otillräckligt att kalla det enbart statistik.

Sålänge man rör sig i trakter där det finns mycket text i sin användning av språkmodeller så kan man också dra nytta av den kunskap som modellerna har tillgodogjort sig.

Med chain of thought och agentiska modeller, alltså att de kan resonera med sig själva när de svarar på dina frågor, så borde vi komma aningen längre även där det inte finns tillräckligt med text. Men hur långt räcker det?

Kommer det komma en variant av reinforcement learning from human feedback (RLHF) där människor kommer att beskriva sina resonemangskedjor för språkmodeller för att de ska kunna besvara frågor där kunskap inte har manifesterats i text i tillräcklig utsträckning? Finns det redan?

Jag tänker att om språkmodeller alls ska kunna leda till AGI så handlar det antingen om att få fram text som manifesterar resterande mänsklig kunskap, eller att få modellerna att själva kunna resonera sig fram.