Slik bruker du en lokal KI-modell
Bli med på et gratis webinar hvor vi ser på bruk av en lokal KI-modell (LLM).
For mange ingeniører og teknologer er det ikke aktuelt å jobbe med skybaserte KI-modeller.
Det kan da være flere fordeler ved å kjøre slike KI-tjenester lokalt. F.eks tjenester som krever kort responstid (low-delay). KI-tjenester som er tilgjengelig selv om Globale tjenester har DDoS-angrep eller annet type utfall. Eller data som en ikke ønsker skal forlate rommet de blir produsert i.
Det er også en trend at flere mindre og spesialiserte KI-modeller blir tatt i bruk. Noen kan faktisk kjøres på mobilen, og bl.a. Apple lager løsninger for dette i disse tider.
Lokale LLM-modeller kan her være en god løsning. Med en lokal KI-løsning uten tilgang til internett kan du bl.a. bruke dette i helsesektoren.
Men hvordan kommer man i gang, og hvordan jobber man med LLM-modellen lokalt?
Fagnettverk KI arrangerer to webinarer om Lokal KI-modell i september 2024. Del 1 arrangeres 16/9 og handlet om oppsett av en lokal KI-modell. Dette er Del 2 hvor det vil være fokus på praktisk bruk av en slik modell med konkrete eksempler og scenarier.
Du møter:
Peder Sefland
Peder vil i dette webinaret gå nærmere inn på praktisk bruk av lokale KI-løsninger. Det vil bli mulighet for å stille spørsmål etter presentasjonen.
Peder S. Sefland er overingeniør i IT-avdelingen ved Høgskulen i Volda og er opptatt av bruken av teknologi i utdanningen.
Han er også initiativtaker for å skape seminar/møteplasser på tvers av utdanning, offentlig/privat sektor og frivillige organisasjoner. Peder er også aktiv i fagnettverk XR og fagnettverk KI i NITO, og er opptatt av at KI blir en naturlig del av alle typer arbeidsoppgaver og hvordan vi kan komme i gang med praktisk bruk av teknologien.
Velkommen!
Fagnettverk KI er åpent for alle NITO-medlemmer. Du kan melde deg inn i fagnettverket her.