Forskare varnar: Öppna AI-modeller kan utnyttjas av hackare - Reuters
29 januari, 15:37
29 januari, 15:37
Forskare varnar för att öppna språkmodeller kan utnyttjas av hackare och kriminella när de körs utanför de stora AI-plattformarnas säkerhetsramar.
En studie från cybersäkerhetsbolagen SentinelOne och Censys, som Reuters tagit del av, visar att datorer som driver sådana modeller kan kapas och användas för spam, nätfiske eller desinformationskampanjer.
Analysen av publikt tillgängliga installationer via verktyget Ollama pekar också på att säkerhetsspärrar i vissa fall tagits bort.
I omkring 7,5 procent av de granskade fallen bedöms instruktionerna kunna möjliggöra skadlig aktivitet, heter det.
Rikard Jansson
rikard.jansson@finwire.com
Nyhetsbyrån Finwire, @Finwire
29 januari, 15:37
Forskare varnar för att öppna språkmodeller kan utnyttjas av hackare och kriminella när de körs utanför de stora AI-plattformarnas säkerhetsramar.
En studie från cybersäkerhetsbolagen SentinelOne och Censys, som Reuters tagit del av, visar att datorer som driver sådana modeller kan kapas och användas för spam, nätfiske eller desinformationskampanjer.
Analysen av publikt tillgängliga installationer via verktyget Ollama pekar också på att säkerhetsspärrar i vissa fall tagits bort.
I omkring 7,5 procent av de granskade fallen bedöms instruktionerna kunna möjliggöra skadlig aktivitet, heter det.
Rikard Jansson
rikard.jansson@finwire.com
Nyhetsbyrån Finwire, @Finwire
Novo Nordisk
Analyser
Rapporter
Börs
Novo Nordisk
Analyser
Rapporter
Börs
1 DAG %
Senast

Lyko Group
Idag, 14:06
Lyko: Osäkerheten spökar
OMX Stockholm 30
1 DAG %
Senast
3 117,93