De fleste virksomheder har en ambition om at udnytte AI og drive en datadrevet forretning...
Men hvad sker der, når datakvaliteten er utilstrækkelig, mangler - eller måske endda er forkert?
Dårlige beslutninger fører til risikable misforståelser og dyre forretningsfejl. Meget dyre.
Alligevel undervurderes datakvaliteten, overses eller præsenteres som en engangsproduktløsning, der udbedres af datateamet.
Men hvordan endte vi her?
Svaret er en kompleks kombination. En kombination af kultur, omkostninger, mangel på forretningsansvar, lavere umiddelbar indvirkning, fragmenteret arkitektur, begribelighed, og mangel på ledelsens prioritet.
Det betyder også, at det at adressere og ændre disse udfordringer kræver et skift i tankegang og en anerkendelse af, at datakvalitet er grundlæggende for præcise beslutninger og forretningssucces.
At indse omkostningerne ved dårlige data og de barrierer, som dårlige data skaber for analyser og AI, kunne være nogle af de drivkræfter, der genopfinder fokus på datakvalitet.
10x reglen
For mere end 30 år siden udførte George Labovitz og Yu Chang en undersøgelse af den negative indvirkning, som dårlig data kunne have på forretningen. Deres undersøgelse foreslog 10x-reglen, der understregede betydningen af at investere i datakvalitet og fejlforebyggelse tidligt i datacyklussen for at mindske de betydelige omkostninger og konsekvenser, der kan opstå, når datafejl spreder sig gennem forskellige behandlings- og anvendelsesfaser. Med enklere ord konkluderede undersøgelsen:
"Jo længere tid en virksomhed bruger på at rette op på datakvalitetsproblemer - jo større vil tabene være i forretningen".
Omfanget og konsekvenserne af dårlig datakvalitet blev beskrevet som 10x-reglen eller 1-10-100-princippet:
1x omkostninger til at forhindre en datafejl
Dette refererer til omkostningen ved at forhindre en fejl på datakilde-trin. Det er den billigste fase at adressere et problem ved at sikre nøjagtighed under dataindtastning.
10x omkostninger til at rette en datafejl
Hvis datafejlen ikke fanges i datakilde-fasen og fortsætter til næste fase (som opbevaring eller transformation), stiger omkostningerne til at udbedre den betydeligt, da det kræver flere ressourcer, tid og indsats at finde, rette og forene fejlen på dette trin.
100x omkostninger, hvis fejlen forbliver uoprettet og når slutbrugeren eller kunden
Hvis en fejl vedvarer gennem de tidligere faser og når slutbrugeren, forbrugeren eller klienten, skyder omkostningerne ved reparationen i vejret. Denne sidste fase inkluderer konsekvenser som kundetilfredshed, potentielle juridiske implikationer, tabte forretningsmuligheder, forkerte beslutninger eller underkonklusion - og den betydelige indsats, der kræves for at afhjælpe konsekvenserne af fejlen.
Selvom mængden af data og den teknologiske landskab er ændret betydeligt - forbliver hovedpointen fra undersøgelsen: Dårlige data er dyre!
Idéen bag 1-10-100 reglen er ikke nødvendigvis at mærke specifikke data med nøjagtige omkostninger, men at understrege betydningen og effekten af at overvåge og adressere datakvalitetsproblemer tidligt i datacyklussen, da omkostningerne ved dårlige data stiger med en snedriveffekt, efterhånden som problemet bevæger sig nedstrøms.
Tre årtier siden var dette den estimerede effekt, der blev foreslået i undersøgelsen. I dag, med mængderne af genereret data, der er eksponentielle, mens data i stigende grad er den centrale puls i de fleste virksomheder, ville det være rimeligt at antage, at omkostningerne og den samlede potentielle effekt er meget højere, afhængigt af industri. Især med flere regulatoriske krav og de fleste processer fra fakturering til levering der kører digitalt baseret på data.
Du ved ikke, hvad du ikke ved
Uden omkostningerne og effekterne nævnt ovenfor har dårlig datakvalitet en anden overset effekt: At være en hindring for analyser og AI.
At udvikle og udnytte mulighederne med analyser og AI kræver simpelthen solid datakvalitet. Mange virksomheder ser ud til at glemme det. Det gamle ordsprog "skrald ind, skrald ud" gælder stadig. God datakvalitet er brændstoffet til AI.
For nylig har vi set udfordringerne med dårlig datakvalitet i to forskellige anvendelsestilfælde af AI. I begge tilfælde blev udfordringen beskrevet godt fra et forretningsperspektiv, omfanget og værdiens potentiale var klart, data blev identificeret, AI-muligheder var på plads, og en dataplatform med de relevante værktøjer var tilgængelig - og datakvalitet dræbte festen. Model(r) var simpelthen ikke i stand til at levere. I et eksempel betød manglen på datakvalitet endda, at modellen ikke kunne adskille og skelne mellem meget grundlæggende oplysninger.
Det lyder simpelt, og noget af det er. Men det er stadig en kritisk hindring for analyser og AI, som mange virksomheder opdager som en hindring på den hårde måde. Og det indebærer også en høj implicit omkostning.
Fælles ejerskab og prioriteter
For at bevæge sig i retning af mere AI og flere analyser skal datakvalitet prioriteres. For at spare omkostninger og undgå forkerte beslutninger, men også for at forberede innovation, nye indsigter og nye indtægtsstrømme.
For at gøre det skal virksomhederne forstå, at høje datakvalitet er et fælles ansvar mellem forretningsdomæner og datadepartementer.
I de fleste virksomheder produceres, fødes eller indsamles data i virksomheden. Enten i forretningssystemer eller -applikationer. Data forbruges og anvendes af virksomheden - og virksomheden er ofte dem, der mærker smerte eller gevinsten ved datakvalitet.
Kort sagt, datakvalitet er meget vigtig for virksomheden, og virksomheden bør altid deltage i det fælles ansvar for at få succes. Datadepartementer kan støtte og overvåge med solide datakvalitetsprincipper, men det er et fælles ansvar for alle involverede. Slutbrugere på tværs af forretningsdomæner såvel som ledelsen skal forstå det. Det er en tværfunktionel øvelse i forandringsledelse, der forklarer vejen fra hvorfor til hvordan.
Imens kan 10x-reglen bruges til at skabe en forretningscase for dårlig datakvalitet til ledelsen.
På denne måde kan virksomhederne ved at prioritere og investere i datakvalitetsstyring fra startindsatsen spare omkostninger, forbedre beslutningstagningen og fjerne potentielle barrierer for nye innovationer med AI.