Artikler > Teknologi

AI hjelper til å skape innhold med raske metoder

Av Einar Eldøy 13.9.2023

AI har fått et spark inn i framtida - til nytte for mange

Startskuddet er gått, AI er kommet for å bli - og det blir bare bedre og bedre. Jeg tror det er smart å begynne å lære om AI. AI for vanlige folk er her. De store som Microsoft og Google er kommet langt, og mange er i gang med avansert arbeid innen AI. Tusenvis av universiteter og høyskoler i verden underviser i AI teknikker. Nye modeller er på vei inn, dypere forståelse av sammenhenger og stor grad av parallell kjøring er nøkkelord.

Å gi AI-systemer gode ledetekster (prompts) med vanlig språk gjør det lett å bruke AI. Følg med nå - AI kommer for fullt - mulighetene er "uendelige".

Populære AI apper nå er GPT Generative Pre-trained Transformerfra Microsoft/OpenAI og BERT Bidirectional Encoder Representations from Transformers fra Google/Alphabet. Microsoft vil lansere Microsoft 365 Copilot generative AI-funksjoner i Office, og oppdateringer i Power Platform-utviklingsplattform med lav kode/ingen kode.

Om de nye AI metodene som nå brukes

  • De kalles transformator modeller og ble introdusert i 2017 av Googles team for kunstig intelligens og dyplæring.

  • Dyplæring bruker matematiske teknikker for selvoppmerksomhet for å forstå inndata. De skjønner hvor betydningsfulle delene av et sett inndata eller prompt er.

  • Parallell databehandling gir stor fart i datasystemene for de behandler inndataene samtidig, bruker mindre tid, opplæringen av modellene går raskere.

  • Opptrening på få dager er mulig med datasett på over 1 milliard ord. Maskiner kan ha 8 Nvidia GPUer og mer. GPUer er utviklet fra grafikk formål til å bli mer generelle parallelle prosessorer for kjapp AI .

  • AI-folk bytter nå til de nye modellene med kortere treningstider som raskt behandler enorme datasett med parallell databehandling.

  • Umerkede datasett fra nettsider, bilder og nesten alle data på internett kan brukes som de er. Før måtte dataingeniørene bruke merkede datasett som var dyre og ressurskrevende å lage.

  • Modellene har lagvise kodinger med koder-dekoder-arkitektur. Hvert lag lager kodinger med relevante inngangsdata som de overfører til neste kodelag.

  • Hvert dataelement merkes med oppmerksomhetsenheter i et algebraisk kart over alle elementer. Et oppmerksomhetssett av ligninger beregner alle oppmerksomhetsspørringer parallelt, og oppdager mønstre akkurat som mennesker.

Bruksområder for AI er nå blitt store, kanskje "uendelige"

Innsikt i data og naturlig språkbehandling Natural Language Processing NLP øker. Praktiske bruksområder er AI-innhold, omskriving av tekst, sanntidsoversettelse fra et språk til et annet, genteknikk med DNA-sekvensanalyse, software for autonome biler, bildegjenkjenning, videobehandling og gjennkjenning av gjenstander. Programmerere mener de nye modellene har ubegrensede muligheter.

Eksempler på bruk av AI i praksis

  • AlphaFOLD2 behandler aminosyrekjeder for forskning på proteiner

  • MegaMolBART er laget av Nvidia og AstraZeneca for å finne nye legemidler

  • ChatGPT er bygget på de nye transformator modellene

Ny AI en suksess

AI kan nå behandle hele datasettet samtidig i stedet for sekvensielt. Da får man link til hver oppføring og sporer relasjoner i sekvensielle data. AI forstår ord i sammenheng med setningene, og ikke bare som frittstående enheter.

Små og subtile forskjeller kan tolkes ut fra hvordan elementer i en serie påvirker hverandre. Det kan være setningenes tone, nyanser og andre små detaljer som oppdages. Man kan lage AI-innhold med store datasett med milliarder av parametere og milliarder av ord.

Mye ny funksjonalitet utviklet

AI får selvovervåket læring, og kan lage modeller for språk, leseforståelse, svare på spørsmål, lage setninger og ord, omskriving, informasjonshenting, teksting av gjenstander, å følge instrukser samt stil- og sentiment-analyse. Modellene kan forstå, tolke og oversette tale i sanntid.

Parallell prosessering, rask trening og mangfoldet i de nye AI programmene skaper et nytt paradigme. Selv om de ble introdusert bare for omtrent 5 år siden, har de allerede blitt de beste dyplæringsmodellene for mønstre i data.

Link til Stephen Wolframs artikkel om ChatGPT

What Is ChatGPT Doing … and Why Does It Work?

Photo by cottonbro studio