Denne modellen lærer og forbedrer seg på basis av data og erfaring. Et typisk eksempel på maskinlæring er generativ kunstig intelligens (Generative Artificial Intelligence, eller “GAI”). GAI kan genere tekst, video, lyd og bilde. Forskjellige GAI-tjenester spesialiserer seg på ulike former for innhold de genererer.
ChatGPT (Tekst ink. kode), Microsoft Copilot (Tekst ink. kode), DALL-E (Bilder), MidJourney (Bilde), Bard (Tekst ink. kode), Google Gemini (Tekst ink. kode), Udio (Musikk), Boomy (Musikk), Google DeepMind’s V2A (Video og lyd ink. dialog).
Under utvikling har vi Genie (under Googles DeepMind’s V2A) som kan generere enkle dataspill. Utviklingen av GAI går i rasende fart.
Ja, GAI kan være en trussel for både bedrifter og privatpersoner.
Cyberkriminelle kan bruke GAI for å automatisere og tilpasse angrep. Det betyr at kriminelle kan bruke GAI for å lære mens den angriper et mål. GAI kan for eksempel brukes for å finne og utnytte sårbarheter raskere enn det et menneske kan, og i motsetning til mennesker vil de ikke overse sårbarheter på grunn av trøtthet eller uoppmerksomhet.
Noen spekulerer allerede nå at noen vil kombinere kvantedatamaskiner og kunstig intelligens for å angripe mål i fremtiden.
Les Kvantetrusselen hos Sicra.
Les Et kvantesprang for en viktig teknologi i Khrono.
GKI kan brukes for å genere e-poster og meldinger som er svært overbevisende og vanskelig å skille fra ekte kommunikasjon. Allerede er masseutsendelser av svindel epost utbredt, men med bruk av GAI kan svindlere masseutsendte svindelepost uten alle skrivefeilene som er typisk for slike eposter. På den måten kan de lure enda flere til å gi fra seg personopplysninger og sensitive data.
GAI kan brukes for å generere ny og mer sofistikerte skadelig programvare som lettere kan se og trenge gjennom tradisjonelle sikkerhetssystemer. Tradisjonelle antivirus og brannmurer vil derfor stille dårlig i møte med kunstig intelligens.
GAI kan brukes for å manipulere datasettet brukt for å trene andre KIer. De kan snike inn misinformasjon, og derav manipulere hvordan kunstig intelligens tar beslutninger og trenes. Det kan føre til feilaktige, og i verse fall farlige utfall.
Over ble språkmodeller som Googles DeepMind V2A nevnt. Deepfakes kan brukes for å generere falske videoer av folk som gjør ting som stiller dem i dårlig lys. Det kan for eksempel få Norges statsminister til å si noe som kan skade relasjonen vår til Sverige eller Danmark.
Ja, GAI kan brukes i cyberforsvar med følgende metoder:
GAI kan analysere store mengder data for å indentifisere mønstre og avvikende og uvanlig aktivitet. Ved hjelp av GAI kan en konsulent raskere oppdage cybertrusler.
GAI kan automatisk oppdage og respondere på cyberangrep ved å isolere berørte ressurser og igangsette nødvendige tiltak.
GAI kan kontinuerlig overvåke nettverkstrafikk og adferd hos brukerne. Dessuten kan GAI overvåke store mengder data samtidig og kan kontinuerlig følge med.
I tillegg til bruk av GAI i disse KI styrte cyberforsvarløsningene, bruker også disse automatisert beslutningstaking, anomalideteksjon risikovurdering med mer.
Flere av Sicras partnere leverer sikkerhetsløsninger som implementer kunstig intelligens, deriblant maskinlæring i sine løsninger. Ønsker du å vite mer kan vi anbefale hovedartikkelen om Kunstig Intelligens.
Våre eksperter står dessuten klare til å gi råd om bruk av kunstig intelligens. Vi kan både hjelpe bedriften din teknisk, men vår CISO-for-Hire-tjeneste kan vi hjelpe dere med å bli NIS2 compliant.
Les om "sikkerhetsovervåkning og hendelseshåndtering (SOC)" her >
Les om "regulatoriske krav og compliance" >
Les om "sikkerhetsrådgivning" her >
Les om "andre tjenester" her >
Relaterte ord: Kunstig Intelligens, Ekspertsystemer, Nevrale Nettverk og Dyp Læring, General Kunstig Intelligens, GDPR, NIS2, CISO-for-Hire