Tillit i digitaliseringens spor
Ulovlig bruk av personopplysninger og slurv med datasikkerheten har ført til flere store skandaler de siste årene. For at ikke den digitale økonomien skal sakke akterut, må bedriftene opprettholde forbrukernes tillit.

Tillit har ifølge sosiologiforsker Diego Gambetta to fiender: dårlig karakter og mangelfull informasjon. I digitaliseringens fotspor har vi sett eksempler på begge.
Stadig flere aktører logger brukernes vaner og atferd for å kunne presentere tilbud og informasjon tilpasset behov og interesser. Men hvilken informasjon som samles inn, og for hvilket formål, går ofte ikke tydelig frem.
De siste årene har ulovlig håndtering av personopplysninger ført til et ras i tilliten for både bedrifter og myndigheter. Det mest medieomtalte eksempelet er antagelig Cambridge Analytica-saken, der personopplysninger fra 87 millioner Facebook-brukere ble samlet inn ved hjelp av en spill-app. Cambridge Analytica brukte deretter informasjonen til å påvirke det amerikanske presidentvalget ved hjelp av målrettede annonser. I en video filmet i skjul fra britiske Channel 4 hører man seniorledere i Cambridge Analytica ta på seg æren for Donald Trumps valgseier.
I tillegg kommer debatten om at Facebooks algoritmer skaper filterbobler, og spredningen av falske nyheter på plattformen, det er derfor ikke overraskende at emneknaggen #DeleteFacebook i noen måneder gikk viralt da sinte brukere bestemte seg for å lukke sine kontoer.
Tillatelsen til å dele informasjon med tredjeparter var visstnok regulert gjennom medlemsavtaler. Det britiske motstykket til Datatilsynet mente likevel at Facebook hadde mislykkes med å beskytte brukerdataene, og med å være transparente overfor brukerne. For dette ble selskapet dømt til å betale en bot på 500 000 pund.
Facebook har lenge hatt en nøytral posisjon som plattformeier og ikke som medieselskap. Dette til tross for at Facebook er en distribusjonskanal for nyheter og informasjon som når millioner av mennesker hver dag. Noe som bidrar til å forme deres verdensbilde.
– De som driver storskala digitale plattformer, anser seg ofte ikke som produsenter av innhold som de har ansvar for. Men designen og modereringen gir en rekke effekter som vi må forstå bedre. Også når det skjer automatisert gjennom algoritmer, sier Stefan Larsson, dosent ved institusjonen for teknologi og samfunn, LTH, ved Lunds universitet og sjef for digitala samhället-programmet i tankesmien Fores.
Tidligere har det vært snakk om filterbobler. I dag handler det mye om såkalte fake news, propaganda eller informasjonspåvirkning. Og mer om ansvarsspørsmål i forbindelse med mange av de skjevhetene i samfunnet, som digitale plattformer risikerer å reprodusere eller bidra til og forsterke.
– Hvordan man trekker grenser for ansvarsspørsmål, er helt sentralt og en diskusjon vi må ha mer av, og ikke bare som et teknisk spørsmål, fortsetter Stefan Larsson.
Tjenesteleverandører som har en direkte relasjon til brukere og forbrukere, utvikles når de granskes, og når markedet og jussen stiller krav. Men en stor utfordring når det gjelder personopplysninger, ligger i hvordan man skal håndtere de tredje- og fjerdepartene som forbrukerne ikke en gang forstår behandler opplysningene deres. De aktørene som driver i det skjulte på et stadig mer kompleks datamarked. Her er det behov for økt tilsynsvirksomhet.
Setter sikkerheten på spill
Spørsmålet om datasikkerhet har seilt opp på agendaen, fordi bedriftene er blitt mer og mer bevisste på hvilke skader det kan føre til hvis den ikke er tilstrekkelig. Den private sektoren er ikke alene om denne typen eksempler, det finnes en rekke tillitsbrudd også i det offentlige.
Et grovt eksempel finner vi i Sverige, der sensitiv informasjon fra Transportstyrelsen ble gjort tilgjengelig for personale i utlandet da man forsøkte å senke IT-kostnadene ved hjelp av outsourcing. Hele førerkortregisteret med bilder og informasjon om veinettet i Sverige lå plutselig åpent for ikke- sikkerhetsklarerte personer. Regelbruddet var så alvorlig at det ble vurdert som en fare for rikets sikkerhet.
I Danmark avslørte det danske Datatilsynet i 2017 brudd på den danske personopplysningsloven. Flere av dem grove. Hos sju av åtte granskede myndigheter, ble de oppfordret til å utbedre dette snarest mulig.
Endret tillit
Hvem kan man egentlig stole på? Fra et samfunnsperspektiv har tilliten verken forsvunnet eller gått ned. Men den er endret.Tilliten til institusjoner og autoriteter synker, men vi stoler på andre mennesker, særlig de vi kjenner, men også på andre forbrukere – deres anmeldelser og uttalelser spiller en stadig viktigere rolle for hvordan vi velger å forbruke.
Et annet område der tilliten vokser, er nye tjenester og innovasjoner. Vi tar spranget ut i det ukjente hver gang vi velger å stole på ny teknologi. Å bruke kunstig intelligens (AI) for første gang eller sette seg inn i en selvkjørende bil krever både mot og tillit, på samme måte som den første gangen man tastet inn egne kortopplysninger på nettet.
Ny atferd kan relativt raskt bli en udramatisk del av hverdagen. Men teknologien kan også svikte oss hvis ikke etikken bygges inn fra starten av. For bedrifter er det i mange tilfeller et spørsmål om å vinne eller forsvinne.
– Å bli hacket og lekke brukerdata kan være nok til å få ødelagt et varemerke og kundenes tillit, sier Stefan Larsson, og nevner dating-apper som eksempel.
Behov for å handle proaktivt
– Brukerne oppfatter det kanskje ikke som sensitivt at bedriften har deres personopplysninger i den riktige konteksten, men det kan være ekstremt sensitivt i andre sammenhenger hvis opplysninger som gjelder finansielle data, helseinformasjon eller seksuell legning, spres til andre kontekster.
For at man som forbruker skal kunne gjennomgå brukervilkårene for en plattform eller digital tjeneste, kreves det ofte en relativt høy innsats, og å skaffe seg et samlet bilde av hvor ens egne personopplysninger havner, har nesten vært umulig.
Når to parter skal inngå en avtale, og den ene har mindre informasjon enn den andre, kalles det informasjonsasymmetri av økonomene. Samfunnsøkonomen og Nobelpris-vinneren Kenneth Arrow var den første som brukte begrepet i 1963 ut fra et helsevesenperspektiv, der en lege som regel har større kunnskap om verdien og effektiviteten av en behandling, enn det pasienten har.
Det er et lignende forhold mellom bedrifter og forbrukere på nettet – som bruker er det vanskelig å få innblikk i hvordan ens egne data lagres og deles, til tross for avtalene som finnes.
En svakhet i dagens system et at lov og praksis når det gjelder informert samtykke, ikke henger sammen, mener Stefan Larsson:
– Som mennesker har vi en begrenset kognitiv evne til å lese og ta til oss informasjon i avtaler som egentlig ikke er utformet for forbrukere. Det å gi sine opplysninger til en tjeneste og så se at de gis videre til 14 andre aktører, er vanskelig å forholde seg til.
Ny lovgivning styrker forbrukernes stilling
Den nye personvernforordningen GDPR har styrket privatpersoners stilling overfor bedrifter, som nå må gå gjennom måten de håndterer personopplysninger på.
– Det kan innebære mer åpenhet, men det må være enkelt. Retten til å bli glemt i GDPR er basert på at man faktisk vet hvem som har ens personopplysninger.
Dette er det imidlertid vanskelig å få oversikt over for privatpersoner.
Et annet problem er å skaffe seg oversikt over hvilke opplysninger som er samlet inn.
– GDPR inneholder sanksjoner som gjør at bedrifter nå går gjennom de dataene de har, og sletter det som ikke trengs.
Før samlet man ofte inn så mye data som mulig, uansett formål, men nå er alle mer bevisste på hvilke data som samles inn.
Selv om loven har økt bevisstheten om dataenes rolle, tar det tid før den er fullt ut implementert; kontrollmyndighetene i de europeiske landene har begrensede ressurser, og det er fremdeles gråsoner når det gjelder bruken og tolkingen av loven.
Behov for nye tjenester
Stefan Larsson tror at det kommer til å være et marked for nye tjenester som øker forbrukernes muligheter til å ta kontroll.
– Et eksempel er kunstig intelligens (AI) som går gjennom avtaler, og som du kan chatte med for å stille spørsmål, nevner Stefan Larsson.
Han hadde også gjerne sett mer arbeid med sertifiseringer eller standarder som f.eks. nordiske Svanen for personopplysninger for å styrke tilliten og transparensen på datadrevne markeder. Da hadde man som forbruker forhåpentligvis lettere kunne ha unngått obskure bedrifter der det er uklart hvor personopplysningene tar veien, og forholde seg til det.
Med digitalisering og banebrytende teknologi står vi overfor utfordringer på flere forskjellige områder, dette gjelder ikke bare håndtering av data. Hvordan fordeler vi f.eks. ansvaret når selvkjørende biler kolliderer, eller når bedriftens AI opptrer uventet fordomsfullt?
Et eksempel på det siste kan være bildegjenkjenning som er flinkere til å tolke bilder av hvite menn enn av fargede og kvinner, fordi dataene som brukes til opptrening av AI-en, er ujevnt fordelt mellom grupper eller inneholder kulturelle skjevheter.
– Har man en bildedatabase med skjev fordeling når det gjelder kjønn eller etnisitet, gjenspeiles det, og nøkkelspørsmålet er hvordan man håndterer dette. De underliggende dataene er avgjørende, samtidig som spørsmålet om transparens og innsyn er ekstra kinkig når det gjelder «selvlærende» algoritmer. Men skal vi dra nytte av og ha tillit til den rikdommen og det potensialet som kunstig intelligens, og kanskje særlig maskinlæring, tilbyr i dag, må vi også bli bedre på å forstå de etiske, sosiale og rettslige utfordringene som følger av dette.
For å lykkes må bedriftene ta ansvar og opprettholde tilliten. Eller som Microsofts CEO Satya Nadella uttrykker det: «Digital tillit er nødvendig. Man må strebe etter å øke den litt hver dag».