Laveste fællesnævner

Af dagens nyheder fremgår, at forældre ikke længere kan sige nej til at der tages billeder af deres skolesøgende børn. Overskriften henviser til, at forældrenes mulighed for at give samtykke til netop dette, er blevet fjernet fra Aula.

KOMBIT, der udvikler og driver Aula, begrunder ændringen med en vejledning fra Datatilsynet ved navn Tjekliste til vuggestuer og børnehaver ved brug af billeder og video, og anfører i deres begrundelse, at brugen af billeder i skoler, efter deres opfattelse, er at sidestille med brugen i dagtilbud.

Derfor anses det også for en nødvendig del af kommunens myndighedsudøvelse, at daginstitutionen tager billeder af børnene og evt. medarbejderne for bagefter at dele dem internt med forældrene for at orientere om børnenes dagligdag.

Datatilsynet har ikke lavet nogen specifik vejledning for brug af billeder i skoler, men det er KOMBIT og KLs vurdering, at brugen af billeder i skoler er at sidestille med brugen i dagtilbud

Uddrag af KOMBIT begrundelse for at fjerne forældresamtykket

Denne sidste pointe kan der vel godt stilles spørgsmålstegn ved. Alle, der har haft børn i vuggestue og børnehave, ved, at billeder fra hverdagen i institutionen kan være nyttige, når man som forælder gerne vil “orientere sig om børnenes dagligdag”, som der står i KOMBITs begrundelse. Dette er særligt relevant fordi børn i vuggestue og børnehavealderen sjældent er kognitivt eller sprogligt i stand til at gøre detaljeret rede for, hvad dagen i institutionen er gået med. Her kan billeder fra en tur i parken eller af regnvejr på legepladsen tjene et indlysende vigtigt formål.

Dette gælder selvsagt ikke i samme omfang for skolesøgende børn, der i højere grad er i stand til selv at dele deres oplevelser med forældrene. Det er noget sværere at argumentere for, at “orientering af forældrene” er et sagligt formål, hvis man tager billeder af en ekskursion i 8. klasse.

Det kan undre, at Datatilsynets ikke forholder sig til denne forskel, og at deres kontorchef blot til DR’s artikel lakonisk konstaterer, at “Forældrene må altså forvente, at der bliver taget billeder, når deres børn er i børnehave eller skole”.

Hertil kommer, at KOMBITs reaktion er et skoleeksempel (tøhø) på gammeldags compliance-tænkning: Vi gør kun det, reglerne tvinger os til at gøre. Når reglerne ikke klart siger, at der skal gives samtykke, så fjerner vi samtykke-muligheden.

Reaktionen fra forælderen i DRs artikel indrammer det fint:

Jeg kan ikke forstå, hvorfor rettighederne til at bestemme, hvem der skal tage billeder af mit barn, skal ligge hos en skole eller institution frem for hos forældrene.

Det var tidligere sådan, at det var mig som forælder, der kunne bestemme, om billedet skulle være der eller ej. Sådan er det ikke længere

Forælder, iflg. DR’s artikel.

Hvori består mon KOMBITs dataetiske overvejelser ved at fjerne muligheden for samtykke?

(Min) tryghed over (din) frihed

Den nu tidligere justitsminister Nick Hækkerup gjorde sig berygtet i privacy-kredse ved fra folketingets talerstol, i samråd og på skrift at tale for, at øget overvågning giver mere tryghed, som igen giver mere frihed.

Jeg blev mindet om Hækkerups udtalelser, da jeg læste en kommentar i Weekendavisen, som berører masseovervågningen, der finder sted i de besatte områder i Palæstina:

Udsnit af artikel fra Weekendavisen

Israelernes omfattende overvågningsprogram på Vestbredden, bl.a. baseret på ansigtsgenkendelse, blev afdækket i en artikel i Washington Post sidste efterår, der efterfølgende blev omtalt verden over.

Det slående ved Nick Hækkerups argumentation er jo perspektivet: Vi (de retskafne borgere) opnår mere tryghed og frihed gennem overvågning af andre (potentielt kriminelle). På samme måde vil israelerne på Vestbredden givetvis hævde, at de opnår tryghed og frihed ved at berøve andre, de overvågede palæstinensere, deres frihedsrettigheder.

Forestillingen om os som de gode og de andre som de onde, og udnyttelsen af denne modstilling til at retfærdiggøre overgreb på dem, vi identificerer som de andre, er vel en af de mest basale propagandateknikker, man kan forestille sig.

Udfordringen i privacy-debatten er, at os og dem jo i realiteten aldrig er to adskilte grupper. Tiltag, der udvikles og indledningsvist rettes mod de andre, vil uvægerligt blive rettet mod os selv før eller siden; dette indtræffer enten fordi der sker en glidning i normerne, fordi myndighederne ikke ønsker at give slip på beføjelser, men oftest simpelthen pga. masseovervågningsteknologiens natur – når man overvåger alle, inkluderer det jo selvsagt også alle de uskyldige. Os selv, om man så må sige.

Hvilket bringer os tilbage til Israel og Vestbredden – og Kina, for den sags skyld. For hvad sker der med samfund, hvor masseovervågning bliver hverdag og en integreret del af ordenshåndhævelsen?

Beretninger fra dagens Kina tyder på, at George Orwell havde fat i noget, da han i 1984 (udgivet i 1949) beskrev overvågningsteknologiens destruktive potentiale, som ultimativt forløses gennem borgernes internalisering af overvågningsregimet.

“It doesn’t even matter whether it’s true or not, as long as people believe it,” he says. “What the Communist Party is doing with all this high-tech surveillance technology now is they’re trying to internalize control. … Once you believe it’s true, it’s like you don’t even need the policemen at the corner anymore, because you’re becoming your own policeman.

Kai Strittmatter, tysk journalist og forfatter til “We Have Been Harmonized: Life In China’s Surveillance State”

Man behøver ikke at være kineser eller israeler for (i mikroskala, men alligevel) at opleve, hvordan internaliseret overvågning virker i hverdagen:

  • Du letter foden fra gaspedalen i bilen, fordi du ser et skilt, der advarer om videoovervågning på motorvejen.
  • Du overvejer en ekstra gang hvilket tøj, du tager på til fodboldkamp eller koncert, fordi du ved, at der er en mulighed for, at du bliver vist på storskærm eller tv.
  • Du undgår at afspille et musiknummer eller en video på en streamingtjeneste (fx en børnesang eller en valgvideo med en politiker, du ikke støtter), fordi du ved, at det vil påvirke tjenestens algoritmiske anbefalinger, så du bliver præsenteret for indhold, du ikke ønsker.
  • Du skynder dig at scrolle forbi en reklame i dit SoMe-feed, fordi du ved at app’en registrerer, hvor længe du dvæler ved hver artikel.

Disse eksempler virker måske uskyldige, men tag ikke fejl, mekanismen bag er den samme som den, der allerede nu dominerer millioner af menneskers liv andre steder på kloden: Vi ændrer adfærd fordi vi bliver overvåget.

Med overvågning falder friheden. Først for de andre og dernæst for os selv.

En privacy-tornado på vej!

Det trækker op til uvejr i privacy-debatten.

På den ene side af debatten står Datatilsynet og fastholder, at man altså skal overholde reglerne, lytte til Schrems II og ikke bare kan overføre persondata til amerikanske cloudleverandører (med mindre man på magisk vis kan garantere, at de er sikret, så NSA ikke kan få fat i dem). Man er generelt lidt overrasket over al postyret, for reglerne har jo ikke ændret sig, man er bare begyndt at håndhæve dem.

På den anden side står virksomheder og myndigheder og anklager tilsyn og regler for at være ude af trit med virkeligheden, og beder om konstruktiv hjælp og klare retningslinker, i stedet for forbud og kritik.

På sidelinjen står først og fremmest privacynørderne (som er et term jeg her anvender med stor kærlighed) og hepper og råber, at det var på tide, at nu må vi alle sammen skifte til små europæiske cloudløsninger, og glæder sig over at de amerikanske overvågningskapitalister endelig – endelig! – får tørt på.

Men der er også mere moderate stemmer iblandt tilskuerne (typisk folk, der lever af at anvise pragmatiske løsninger for virksomheder og myndigheder), der efterspørger kompromiser og bløde landinger, fordi alternativet er praktisk uoverskueligt.

Næsten helt stille er tech-giganterne Microsoft, Amazon, Google, etc. – de skal ikke have noget klinket, og håber formentlig på at de kan holde vejret længe nok til, at der findes en bureakratisk løsning, der spreder skyerne og skaber ro.

I en helt andet postnummer står de mennesker, hvis data det hele handler om. De fleste af dem kigger den anden vej, givetvis helt uopmærksomme på debatten, og på i hvilket omfang deres persondata misbruges. Og på hvor voldsomme implikationer det ville få for deres hverdagsliv, hvis alle virksomheder og myndigheder lige pludselig skulle til at overholde reglerne.

Personligt savner jeg en balanceret, informeret politisk debat om emnet, som er båret af andet end kommunalpolitikeres praktiske overvejelser eller landspolitikeres lommefilosofi. Kan vi tillade Big Tech’s skruppelløse overvågning af borgere? Kan vores erhvervsliv og vores økonomi bære, at vi ikke benytter de største og bedste cloudtjenester? Er vi nødt til at justere GDPR, eller skal vi netop holde fast når det begynder at gøre ondt? Hvilke strategiske interesser har Danmark og EU? Hvad tjener borgerne bedst, og hvad er vigtigst?

Er det for meget at håbe på, at det kunne blive et emne i den kommende valgkamp?

Dagens ret: Designbøffer

I anledning af, at Datatilsynet har givet LB Forsikring alvorlig kritik for ikke at overholde princippet, skal dette indlæg handle om GDPRs definition af “Privacy by Design”:

Under hensyntagen til det aktuelle tekniske niveau, implementeringsomkostningerne og den pågældende behandlings karakter, omfang, sammenhæng og formål samt risiciene af varierende sandsynlighed og alvor for fysiske personers rettigheder og frihedsrettigheder, som behandlingen indebærer, gennemfører den dataansvarlige både på tidspunktet for fastlæggelse af midlerne til behandling og på tidspunktet for selve behandlingen passende tekniske og organisatoriske foranstaltninger, såsom pseudonymisering, som er designet med henblik på effektiv implementering af databeskyttelsesprincipper, såsom dataminimering, og med henblik på integrering af de fornødne garantier i behandlingen for at opfylde kravene i denne forordning og beskytte de registreredes rettigheder.

GDPR Artikel 25, stk. 1

Udover at selve sproget i denne artikel vitterlig er ret besynderligt, selv for GDPR – ikke mindst den mærkelige opremsning med to gange “såsom” – er det værd at bemærke, at artiklens helt centrale, operationelle vendinger, “aktuelle tekniske niveau” og “passende foranstaltninger”, er mildt sagt abstrakte.

Hvad er aktuelt? Hvad er passende? Hvem bestemmer det?

Hertil kommer det mere filosofiske spørgsmål: Hvorfor skal lovgiverne overhovedet blande sig i processen hvormed en løsning designes, og hvilke tanker folk gør sig “på tidspunktet for fastlæggelse af midlerne til behandling” – hvis bare den endelig løsning overholder reglerne?

I sin essens siger artiklen reelt, at man skal overholde alle de forudgående og efterfølgende regler, når man bygger IT-løsninger – hvilket gør det svært at se artiklen som andet end et udtryk for, at lovgiverne grundlæggende mangler tillid til de IT-folk, de godt ved i sidste ende skal implementere lovgivningen i noget kode.

I 90’erne, længe før GDPR, udformede den canadiske Ann Cavoukian sine berømte 7 principper for Privacy by Design. Som principper betragtet er de ærlig talt ikke særlig stringente, men de giver dog væsentligt mere kød på betegnelsen end GDPRs halvhjertede forsøg.

Og så til afgørelsen vedr. LB Forsikring:

Ved udvikling af en portalløsning som LB Forsikring A/S’ arkiveringssystem, hvor der skal gives adgang til opbevarede dokumenter med personoplysninger i, er det ikke i overensstemmelse med det aktuelle tekniske niveau, hvis et maildomæne alene tillægges vægt i henhold til, hvilke dokumenter der gives adgang til. Herudover vil det være en del af det aktuelle tekniske niveau, at den dataansvarlige indbygger opfølgende kontroller, der sikrer, at en sådan automatisk proces alene giver den korrekte adgang.

Datatilsynets afgørelse vedr. LB Forsikring

Her giver Datatilsynet os jo syn for sagn: Brug af maildomæne som adgangskontrol er ikke ok ift. det aktuelle tekniske niveau.

Men så melder spørgsmålet sig jo: Har det nogensinde været ok? Var der et tidspunkt i historien, hvor det ville have været en god løsning og i overensstemmelse med det aktuelle tekniske niveau at bygge et IT-system, der brugte maildomæne som adgangskontrol? Næppe.

Det er simpelthen bare en designbøf. Det svarer til at bygge et system, der registrerer kundens CPR-nummer, selvom man i processen kun har brug for fødselsdatoen. Eller at et systems datamodel designes sådan, at der ikke kan bo to forskellige personer med samme navn på samme adresse. Det er “bare” klodset design. Og det sker hele tiden for alle mulige aspekter af IT-systemer. Forskellen er bare, at når det gælder privacy, så har vi med GDPR en lov, der eksplicit (omend lidt kluntet) beordrer os til at tænke os om, når vi bygger IT-systemer.

Det er vist bare det, “aktuelle tekniske niveau” og “passende foranstaltninger” betyder. Og den konkrete sag viser måske meget godt, hvorfor lovgiverne manglede tillid til IT-folk, da de i sin tid tilføjede artikel 25 😉.

Tak, i øvrigt, til https://mahler.io/ for idéen til at skrive om afgørelsen.

Kan man måle dataetik?

I forlængelse af indlægget om målepunkter for privacy, er det et oplagt spørgsmål, hvordan man som organisation udstrækker sin forståelse af hvor godt man klarer sig, og hvordan man kan forbedre sig, til også at omfatte dataetik.

Siden 2021 har loven tilsagt, at alle større danske virksomheder skal redegøre for deres dataetiske politik. Loven giver udstrakt grad af frihed ift. udformningen af de konkrete politikker, og der stilles ingen krav om at der måles på om eller hvordan de bruges, eller på anden måde følges op på implementeringen.

Reelt er loven således bare et krav om at virksomheder skal kunne fremvise et dokument, der på en eller anden måde siger noget om dataetik. Og det vil være rimeligt at antage, at mange virksomheder har løst opgaven på nemmest mulige måde: De har lavet en politik, lagt den hjemmesiden og glemt alt om den.

Men hvis man nu er en virksomhed, der gerne vil arbejde seriøst med dataetik, er dette naturligvis utilfredsstillende.

I denne korte, men indsigtsfulde artikel beskriver Chris Wiggins hvordan man kan måle direkte på sin dataetiske indsats, men nok så vigtigt hvordan organisationer løbende bør justere deres øvrige (fx kommercielle, tekniske) målepunkter til at være i overensstemmelse med deres dataetiske principper.

Part of this monitoring will not be quantitative. Particularly since we can not know in advance every phenomenon users will experience, we can not know in advance what metrics will quantify these phenomena. To that end, data scientists and machine learning engineers must partner with or learn the skills of user experience research, giving users a voice. This can mean qualitative surveys, interviews, or other means of gathering data from users

Chris Wiggins

Så i forsøget på at forstå om vi handler dataetisk, må vi altså først og fremmest indstille os på, at vi bliver nødt til at spørge folk (dvs. medarbejdere, kunder og partnere) om deres subjektive holdning. Der er mange måder at måle på folks oplevelse af tillid til en organisation, så her er det vigtigt at man vælger sin metodik og målgrupper med omhu.

Dertil kommer muligheden for at måle på de kvantitative, transaktionelle data, en organisation producerer, når den dataetiske politik faktisk anvendes: Hvornår er den dataetiske politik sidst opdateret? Har man en dataetisk komité eller lignende? Hvor mange gange har en sådan komité mødtes? Hvor mange sager har den behandlet? Eller, hvis der ikke er en decideret komité: Hvor ofte har virksomheden truffet beslutninger på grundlag af den dataetiske politik?

Hvis man ikke har eller kan skaffe nogle transaktionelle data af ovenstående type, er det måske værd at overveje, om man bør justere sine dataetiske principper.

Your KPIs can’t conflict with your principles if you don’t have principles

Chris Wiggins

Og slutteligt kan man måle på hvor ofte man justerer øvrige målepunkter og KPI’er med henvisning til dataetiske principper. Målingen af dette kræver at man har succes med at engagere hele organisationen i arbejdet med dataetik, hvilket kan være en udfordring i sig selv, med mindre organisationen har meget høj modenhed i implementeringen af privacy og dataetik.

Det sandfærdige svar på overskriftens spørgsmål er jo nok, at det kan man ikke, entydigt. Men større organisationer kan – og bør – måle på i hvilken udstrækning de arbejder dataetisk, og om der er tillid det arbejde blandt medarbejdere, kunder og samarbejdspartnere.

En sikker destination?

I denne uges Weekendavisen er der en spændende artikel om de retssager, der er anlagt mod den britiske regering, i anledning af dens planer om at sende asylansøgere til Rwanda.

Luke og InstaLaw agter også at få afklaret, om aftalen med Rwanda vil være et brud på de britiske databeskyttelseslove.

»Vi har meget strenge regler for databeskyttelse; for hvordan data bruges, gemmes og sikres på vegne af individer. Det er regler, som Rwanda ikke ønsker at tilslutte sig, så vi mener, at det vil være ulovligt at dele informationer med de rwandiske myndigheder om individer, som risikerer at blive sendt til landet,« forklarer Stuart Luke om et andet element i sagsanlægget.

Weekendavisen, 24.05.22

Som bekendt har den danske regering arbejdet på en lignende aftale om at sende asylansøgere til Rwanda. Og skulle det lykkes, som det er sket for briterne, er det rimeligt at antage, at Danmark i givet fald ville skulle overføre oplysninger om asylansøgerne til myndighederne i Rwanda.

Men kan Danmark lovligt udveksle asylansøgernes persondata med myndighederne i et usikkert tredjeland? Hvordan sikrer man tilstrækkelig beskyttelse af disse personers data i et land, der menes at lave udbredt overvågning af egne borgere?

In July, the Pegasus Project revealed that the phone of Paul Rusesabagina’s daughter, Carine Kanimba, was infected with the NSO Group’s Pegasus spyware. Rwanda is believed to be an NSO Group client. More than 3,500 phone numbers, including those of activists, journalists, political opponents, foreign politicians and diplomats of interest to Rwanda, had been selected as potential targets for the spyware.

Amnesty International, Rwanda 2021 Report

Uanset hvad man i øvrigt mener om planerne om at sende asylansøgere til Rwanda, gør den danske regering klogt i at huske, at de europæiske regler om overførsel af persondata til usikre tredjelande også gælder for dem.

Med næsen i sky

Datatilsynet har i denne uge udgivet en detaljeret vejledning om cloud:

https://www.datatilsynet.dk/Media/637824109172292652/Vejledning%20om%20cloud.pdf

… og den er jo ikke mindst interessant i lyset af at Københavns Kommune jo netop har smidt cloud-håndklædet i ringen. Men giver den nye vejledning håb til masserne, der ligesom kommunen leder efter en smutvej uden om Schrems? En nem måde at bare bruge amerikansk cloud, ligesom i (ahem) gamle dage?

Nej, desværre.

Grundlæggende er vejledningen en mere udførlig gengivelse af den 6-trins-model, som EDPB og de nationale tilsyn udsendte allerede sidste år:

Og én væsentlig udfordring, man løber ind i med at forsøge at følge 6-trinsmodellen (og derfor også med Datatilsynets vejledning), indtræffer i modellens step 1, det som vejledningen også omtaler som: Kend dine dataoverførsler. Det lyder simpelt, men når man først indser at man som dataansvarlig skal stå på mål for alle sine databehandlere, og alle deres databehandlere (underdatabehandlere), og alle deres databehandlere (underunderdatabehandlere) og … ja, altså hele kæden af databehandlere, uanset i hvor mange led, og at ansvaret altså ikke aftager med antallet af led, ja, så mister de fleste pusten inden de næsten er kommet i gang.

Udsnit af side 13 af vejledningen

Jeg sad for nylig i møde med en amerikansk ejet, global softwarevirksomhed med tusindvis af ansatte, og som i øvrigt sælger løsninger baseret på public cloud, og jeg spurgte deres sikkerhedschef, om de havde et overblik over hvilke underleverandører, herunder underdatabehandlere, de havde.

Svaret: “Vi bruger ikke underleverandører”!

Den manglende forståelse siger noget om hvor langt vi er fra en situation, hvor det man som europæisk dataansvarlig mangler, er en mere pædagogisk og detaljeret vejledning. Men tak til Datatilsynet for at gøre sig umage med at forklare og eksemplificere reglerne, så alle nu kan se, hvordan virkeligheden burde se ud.

Imens jeg har skrevet på dette indlæg kan jeg se, at altid skarpe Henning Mortensen fra RfDS har forholdt sig til vejledningen: “Problemstillingerne har ikke ændret sig med den her vejledning”.

Håndklædet i ringen

Noget tyder på at Københavns Kommune endelig har smidt cloud-håndklædet i ringen, og opgivet at finde en måde at besejre eller møve sig udenom Schrems II:

https://www.version2.dk/artikel/eu-dom-har-lammet-kaempe-cloud-omstilling-koebenhavns-kommune-1094343

Centrale citater:

“Schrems-dommen udfordrer mange af kommunens nye tiltag på digitaliseringsområdet. I flere tilfælde kan de ikke gennemføres, da leverandørerne overfører data til USA og ikke kan sikre et tilstrækkeligt beskyttelsesniveau”

“Der er dog både i staten, kommuner og regioner eksempler på, at nye systemer sættes i drift, da det i nogle tilfælde vurderes, at den samfundsopgave, myndigheden løser, ikke kan løses på en god måde uden at bruge amerikanske cloud-tjenester”

Man fristes til at konkludere, at kommunen, ligesom de fleste danske og europæiske virksomheder og myndigheder, de facto har affundet sig med at forholde sig afventende og håbe på at jurister i Bruxelles og Washington får Schrems II-problemet til at forsvinde med en opdateret Privacy Shield-ordning.

Og selvom det er mange penge, er de nævnte ekstraomkostninger på 13 millioner kr. i den konkrete sag nok næppe noget, der holder kommunens finansfolk søvnløse (til sammenligning bruger kommunen 15 millioner på at holde helårsåbent i udvalgte skøjtehaller i 2022).

Men det er rimeligt at forudsætte, at hvis kommunen begrænser sig selv her, så gælder begrænsningen også andre steder, hvor besværet og ekstraomkostningerne givetvis vil være væsentligt større.

Logningsfarcen

Folketinget har i dag vedtaget nye regler telelogning, som det fremgår af Justitsministeriets pressemeddelelse:

https://www.justitsministeriet.dk/pressemeddelelse/flertal-i-folketinget-vedtager-nye-regler-for-logning/

Disse regler er, har Justitsministeren flere gange offentligt vedgået, designet med det primære formål at kunne danne grundlag for at fastholde den hidtidige generelle og udifferentierede logningspraksis, som er kendt ulovlig af EU-domstolen ved flere lejligheder, og som i praksis betyder at så godt som alle danskeres færden registreres og katalogiseres minutiøst, også i fremtiden.

Hatten af for de jurister, der har fået konstrueret en spidsfindig juridisk ramme, så Justitsministeren kan hævde, at de nye regler teknisk set overholder reglerne(sic!), uden at de i praksis stiller datasubjekterne – danskerne – bedre. Og hatten af for vores Justitsminister, der i det mindste er ærlig i sin ringeagt for retten til privatliv, fordi “med overvågning stiger friheden“, som bekendt.

Justitsministeriet erkender, at der er betydelig risiko for, at også denne lov kendes ugyldig af EU-domstolen. Men den slags kan jo erfaringsmæssigt tage sin tid, og så har vi jo fået masser af Hækkerup’sk frihed i mellemtiden.

Digitaliseringsgys

Med en vis forsinkelse anmelder Markus Bernsen i denne uges Weekendavisen Bøger en antologi redigeret af bl.a. Politikens techredaktør Michael Jarlner, “Fra velfærdsstat til overvågningsstat”:

https://www.weekendavisen.dk/2022-8/boeger/styrelsen-for-digital-fornuft

Det er altid opmuntrende, når vi får flere kritiske stemmer i debatten om brugen af data, og at disse stemmer finder vej til mainstreammedier. Og endnu bedre når vi får bud på nye begreber, “overvågningsstat”, som lægger sig elegant i direkte forlængelse af Shoshana Zuboffs “overvågningskapitalisme” for den private sektor.

Debatten om digitalisering i det offentlige er særlig interessant at følge, fordi den har et ekstra lag af etik ift. overvågningskapitalisme. Udover at borgerne selv finansierer digitaliseringen i det offentlige gennem skattebetaling, er det offentliges ydelser i udgangspunktet ikke underlagt konkurrence, og man har et iboende ansvar for at levere ydelser til alle. Disse forhold invaliderer en række traditionelle argumenter, som private virksomheders kan bruge til at forsvare deres brug af data.

Men i midt i den kritiske linje ift. offentlig digitalisering (som man bl.a. også kan få en ugentlig dosis af på https://mingarage.net/) kunne det være spændende at høre nøgterne, objektive (måske endda forskningsbaserede) observationer, der forholdt sig til både negative og positive effekter, og søgte efter den optimale balance. Som næppe er papirformularer med gennemslag til alting, trods alt.

Bogen blev i øvrigt allerede anmeldt af Peter Svarre på altinget.dk, da den udkom tilbage i november ’21.