Bortom medicin och maskin - brev från AI Bootcamp 2026 vid Stanford University

Av Dawid Rutkowski, AT-läkare vid Karolinska Universitetssjukhuset och doktorand vid Karolinska Institutet.
I gränslandet mellan klinisk medicin och beräkningsvetenskap arrangerades nyligen ett AI Bootcamp på Stanford University, ett samarbete mellan American Pancreatic Association och Stanford Pediatric Gastroenterology Division. Eventet ägde rum i den nyligen invigda Stanford Computing and Data Science (CoDa) Building, en byggnad som med sin glasöppna arkitektur och oavbrutna flöde av studenter knöt an till temat på ett nästan poängterande sätt. Som inbjuden läkare och doktorand från Karolinska Institutet föll det sig naturligt att resa över Atlanten för att delta.
Ett tvåspårigt upplägg
Bootcampen var medvetet uppbyggd som ett tvåspårigt event. Det ena spåret riktade sig till kliniskt aktiva läkare som ville förstå hur moderna AI-verktyg, framförallt stora språkmodeller som Claude och ChatGPT, kan användas och eventuellt även integreras i det dagliga arbetet utan att kompromissa med patientsäkerhet eller integritet. Det andra spåret var skarpare och mer tekniskt: hands-on-sessioner där deltagarna fick formulera akademiska problem och lösa dem genom programmering, ofta med en “Large-Language Model” (LLM) som tyst medarbetare i bakgrunden. För en läkare och forskare som mig, van vid både kliniska beslutsträd och UNIX-terminaler, så var den andra delen mer tilltalande och nog den mest givande. Att dock få se andra kliniska kollegor med begränsad programmeringserfarenhet bygga prototyper med enstaka prompts över en eftermiddag som sedermera mynnade ut i konkreta välfungerande problemlösningar var inget annat än häpnande, och säger något om var AI-verktygen (LLMs) står idag.
Data som det nya fossila bränslet
Föreläsningarna löpte parallellt med det praktiska arbetet och bland talarna fanns bland annat Faysal Sohail — en erfaren riskkapitalist och Managing Director vid Presidio Partners, med en bakgrund som medgrundare av Silicon Architects och i grundarteamet för Actel Corporation. Sohails perspektiv, format under decennier i Silicon Valley och med ett brett investeringsfokus inom halvledare, energiteknik och AI, gav föreläsningarna en skärpa som klinisk forskning sällan stiftar bekantskap med. Hans återkommande tes var enkel men slående: data är det nya fossila bränslet och beräkningskraft “compute” är den nya valutan. Den som kontrollerar tillgången till båda, kontrollerar i praktiken takten i AI-utvecklingen.
Tre epoker, en platå
En återkommande pedagogisk modell var berättelserna och historierna kring de olika epokerna som definierat utvecklingen kring artificiell intelligens i modern tid. Först kom forskningseran, ungefär 1940 till 2020, då grundläggande arkitekturer, algoritmer och teoretiska ramverk vaskades fram i universitetsmiljöer och företagslasboriatorium. Därefter följde eran av hyper-uppskalning, där privata aktörer som Anthropic och OpenAI tog tronen genom att helt enkelt göra modellerna större, datamängderna mer omfattande och träningskostnaderna astronomiska. Parallellt har ett intressant fält av uppstickare, DeepSeek, GLM, Kimi, Qwen, Minimax och i viss mån Mistral, visat att teknisk skicklighet och resursfördelningseffektivitet fortfarande kan utmana kapital. Det var i synnerhet flera diskussioner kring hur dessa aktörer möjliggör en demokratisering av tillgången till kraftfulla modeller, något som har direkta och mer omfattande konsekvenser för forskning i resurssvagare länder.
Nu i 2026 och framåt, vill jag personligen hävda att vi befinner oss i en tredje era, en hybrid-era där forskningens och hyper-uppskalningens skolor smälter samman. Anledningen är i första hand pragmatisk: uppskalningen har begränsats i förhållande till tillgängliga resurser. Fabrikerna som tillverkar RAM-minnen samt grafikkort går på högvarv, datacenter byggs ut kontinuerligt men marginalvinsterna av ren uppskalning minskar inom ramen för en avtagande avkastning. Följaktligen riktas blicken åter mot den akademiska aspekten, mot arkitektoniska innovationer som förhoppningsvis kan leda till kontinuerligt lärande och nya resursvänliga sätt att resonera över långa och olika kontexter.

AGI och kringgångar i CoDa
Trots att värdarna kom från den gastroenterologiska skaran på Stanford, var det ändå de tekniska finesserna och de praktiska “work-aroundsen” för att kringgå språkmodellernas tillkortakommanden — hallucinationer, kontextfönsterbegränsningar, svårigheter med flerstegsresonemang — som dominerade samtalen. Målbilden tonade fram tydligt: ett tillstånd som kan kallas Artificial General Intelligence (AGI), oavsett hur man definierar det. Det var på sätt och vis passande att diskussionen fördes i just CoDa-byggnaden, vars fysiska form är en påminnelse om att data och beräkning numera är en akademisk disciplin i sig själv och inte bara ett verktyg för andra discipliner.
Reflektioner inför hemresan
För en kliniker från Karolinska Institutet är det lätt att känna sig som en gäst i den här typen av sammanhang. Och ändå var det just korsbefruktningen mellan medicin och datavetenskap som gjorde bootcampen värd den långa resan. Diagnostiska utmaningar och neurala nät-arkitekturer behöver inte vara separata samtal, tvärtom är det vid sådana tvärvetenskapliga möten som de mest produktiva forskningsfrågorna och idéerna för applicerad AI inom medicin formuleras.
Jag kunde sedermera återvända hem med ett konkret nystan av idéer kring hur LLM-baserade verktyg kan stötta forskning såväl som diagnostiska arbetsflöden i vårdkedjan, samt en ödmjuk påminnelse om att det största hindret för bättre AI inom vården inte är tekniken, utan vår förmåga att ställa rätt frågor till den.
