Bruger:Bioingeniør/Kunstig intelligens etik

I dagens artikel skal vi tale om Bruger:Bioingeniør/Kunstig intelligens etik, et emne der har skabt stor interesse i nyere tid. Bruger:Bioingeniør/Kunstig intelligens etik er noget, der påvirker mange mennesker i forskellige aspekter af deres liv, hvad enten det er på et personligt, professionelt eller endda socialt plan. Det er et emne, der fortjener vores opmærksomhed og analyse, da dets indvirkning kan være betydelig i vores daglige liv. Igennem denne artikel vil vi udforske forskellige aspekter af Bruger:Bioingeniør/Kunstig intelligens etik, fra dets oprindelse til dets konsekvenser, herunder dets mulige løsninger eller måder at løse det på. Vi håber, at denne artikel giver dig et dybere indblik i Bruger:Bioingeniør/Kunstig intelligens etik og hjælper dig med bedre at forstå dets relevans i dagens samfund.

Kunstig intelligens etik (også kendt som AI-etik) er en gren af etik og anvendt etik, der beskæftiger sig med de moralske spørgsmål, dilemmaer og samfundsmæssige konsekvenser, der opstår i forbindelse med design, udvikling, udbredelse og anvendelse af kunstig intelligens (AI).[1] Feltet undersøger, hvordan AI kan udvikles og bruges på måder, der er i overensstemmelse med menneskelige værdier, respekterer menneskerettigheder, fremmer retfærdighed og minimerer potentielle skader.[2] Det er et hastigt voksende og tværfagligt felt, der involverer filosofi, datalogi, jura, sociologi, psykologi, økonomi og andre videnskaber.[3]

Fremkomsten af stadig mere kapable AI-systemer, herunder maskinlæring (ML) og deep learning, har medført en øget bevidsthed om de etiske implikationer. Disse systemer anvendes i et bredt spektrum af domæner, fra anbefalingssystemer og autonome køretøjer til medicinsk diagnosticering, finansiel modellering og retsvæsenet, hvilket potentielt påvirker individers liv og samfundsstrukturer fundamentalt.[4]

Centrale temaer inden for AI-etik omfatter:

  • Algoritmisk bias og retfærdighed: Hvordan sikres det, at AI-systemer ikke diskriminerer eller forstærker eksisterende sociale uligheder?
  • Ansvarlighed (Accountability): Hvem er ansvarlig, når et AI-system træffer forkerte eller skadelige beslutninger?
  • Gennemsigtighed (Transparency) og Forklarlighed (Explainability): Kan vi forstå og forklare, hvordan AI-systemer når frem til deres resultater?
  • Privatlivets fred: Hvordan beskyttes personlige data i en æra med AI-drevet overvågning og dataanalyse?
  • Sikkerhed og Robusthed: Hvordan sikres AI-systemer mod fejl, manipulation og misbrug?
  • Menneskelig autonomi og kontrol: Hvordan påvirker AI menneskers evne til at træffe egne beslutninger, og hvordan sikres meningsfuld menneskelig kontrol over systemerne?
  • Samfundsmæssig og økonomisk påvirkning: Hvilke konsekvenser har AI for beskæftigelse, økonomisk ulighed og demokrati?
  • AI's moralske status og kunstig generel intelligens (AGI): Langsigtede etiske spørgsmål om bevidsthed, rettigheder for avancerede AI'er og eksistentiel risiko forbundet med superintelligens.[5]

Der pågår en betydelig international indsats for at udvikle etiske retningslinjer, standarder og regulering for at guide udviklingen og anvendelsen af AI.[6][7]

Historisk baggrund

Selvom AI-etik er et relativt nyt felt i sin nuværende form, har de underliggende filosofiske spørgsmål rødder langt tilbage. Spørgsmål om bevidsthed, intelligens, ansvar og maskiners rolle i samfundet er blevet diskuteret af filosoffer og forfattere i århundreder. Science fiction, f.eks. Isaac Asimovs Robotikkens love, har ofte udforsket potentielle etiske dilemmaer ved avancerede robotter og AI.[8]

Med udviklingen af de første computere og AI-programmer i midten af det 20. århundrede begyndte forskere som Norbert Wiener at advare om de potentielle samfundsmæssige konsekvenser af automatisering og intelligente maskiner.[9] Joseph Weizenbaum, skaberen af det tidlige chatbot-program ELIZA, blev en stærk kritiker af overdreven tillid til computere og AI, og argumenterede for grænserne for maskinel rationalitet.[10]

Feltet AI-etik fik fornyet og markant øget opmærksomhed i det 21. århundrede, drevet af fremskridt inden for maskinlæring, stigningen i big data og den stigende integration af AI i kritiske samfundsfunktioner. Bekymringer over algoritmisk bias, privatlivskrænkelser og potentialet for jobtab skabte et presserende behov for systematisk etisk analyse og governance. Organisationer som Future of Life Institute (grundlagt 2014) og Partnership on AI (grundlagt 2016) blev etableret for at fremme forskning og dialog om sikker og gavnlig AI.

Hovedområder inden for AI-etik

Bias og retfærdighed

Algoritmisk bias er et af de mest fremtrædende og veldokumenterede problemer inden for AI-etik. Det opstår, når et AI-system systematisk producerer uretfærdige eller diskriminerende resultater mod bestemte grupper af mennesker, ofte baseret på karakteristika som race, køn, alder, seksuel orientering eller socioøkonomisk status.[11]

Kilder til bias inkluderer:

  • Historisk bias i data: Træningsdata afspejler ofte historiske og samfundsmæssige fordomme. Hvis et system trænes på data fra en periode med diskriminerende ansættelsespraksis, kan det lære at reproducere denne diskrimination.[12]
  • Repræsentationsbias: Visse grupper kan være under- eller overrepræsenteret i træningsdata, hvilket fører til dårligere performance for de underrepræsenterede grupper. Et kendt eksempel er ansigtsgenkendelsesteknologi, der har vist sig at have signifikant lavere nøjagtighed for kvinder med mørkere hudfarve sammenlignet med mænd med lysere hudfarve.[13]
  • Målebias: Den måde, variable defineres og måles på, kan introducere bias. For eksempel kan brugen af anholdelsesrater som proxy for kriminalitet i forudsigende politiarbejde (predictive policing) være problematisk, hvis visse befolkningsgrupper overvåges mere intensivt af politiet.[14]
  • Algoritmisk bias: Selve algoritmen eller modelvalget kan favorisere bestemte resultater eller grupper.

Konsekvenserne af bias er vidtrækkende og kan føre til uretfærdig behandling i jobansøgninger,[15] låneansøgninger, adgang til bolig, forsikringspræmier og endda i retssystemet, f.eks. ved brug af risikovurderingsværktøjer til at forudsige recidiv.[16]

Forskning i Retfærdighed i maskinlæring (Fairness in Machine Learning) sigter mod at udvikle tekniske og socio-tekniske løsninger. Dette omfatter:

  • Udvikling af matematiske definitioner af retfærdighed (f.eks. demografisk paritet, lige muligheder, individuel retfærdighed).[17] Det er dog vigtigt at bemærke, at forskellige retfærdighedsdefinitioner kan være matematisk inkompatible.[18]
  • Teknikker til at afbøde bias før, under eller efter træning af modellen (pre-processing, in-processing, post-processing).
  • Udvikling af værktøjer til at auditere AI-systemer for bias.

Ansvarlighed og gennemsigtighed

Når AI-systemer træffer beslutninger med betydelige konsekvenser, opstår spørgsmålet om ansvarlighed (accountability). Hvem bærer ansvaret, hvis en selvkørende bil forårsager en ulykke, en medicinsk AI stiller en forkert diagnose, eller en algoritme uretmæssigt afviser en låneansøgning?

Udfordringer for ansvarlighed i AI inkluderer:

  • "Black Box"-problemet: Mange moderne AI-modeller, især dybe neurale netværk, er ekstremt komplekse. Det kan være svært eller umuligt for selv eksperter at gennemskue præcis, hvorfor en model træffer en bestemt beslutning baseret på et givet input. Denne mangel på gennemsigtighed gør det vanskeligt at identificere fejlårsager og tildele ansvar.[19]
  • Ansvarlighedskløften (Responsibility Gap): Kompleksiteten og autonomien i nogle AI-systemer kan skabe en situation, hvor det er svært at placere ansvaret hos en specifik menneskelig aktør (udvikler, bruger, ejer). Nogle filosoffer argumenterer for, at dette kan føre til en "ansvarlighedskløft".[20]
  • Fordelt ansvar: AI-udvikling og -implementering involverer ofte mange parter (data-leverandører, softwareudviklere, hardwareproducenter, integratorer, brugere), hvilket yderligere komplicerer ansvarsfordelingen.

Gennemsigtighed og forklarlighed (explainability) er afgørende for at imødegå disse udfordringer. Gennemsigtighed handler om at give indsigt i, hvordan et system fungerer, hvilke data det bruger, og hvordan beslutninger træffes. Forklarlighed handler specifikt om at kunne give en forståelig begrundelse for en bestemt output eller beslutning.

Forskning i Forklarlig AI (XAI) sigter mod at udvikle teknikker, der kan gøre AI-systemer mere gennemsigtige og deres beslutninger mere forklarlige for mennesker.[21][22] Eksempler på XAI-metoder inkluderer LIME (Local Interpretable Model-agnostic Explanations) og SHAP (SHapley Additive exPlanations). Kravene til gennemsigtighed og forklarlighed er særligt høje i højrisiko-applikationer som sundhedsvæsen og retspleje, og er også centrale elementer i lovgivningsinitiativer som EU's AI Act.[23]

Privatlivets fred

AI-systemer, især dem baseret på maskinlæring, er ofte afhængige af store mængder data for at blive trænet effektivt. Denne dataafhængighed rejser betydelige bekymringer for privatlivets fred.[24]

Etiske problemstillinger vedrørende AI og privatliv inkluderer:

  • Dataopsamling og overvågning: AI muliggør indsamling og analyse af personlige data i et hidtil uset omfang, fra online adfærd og sociale medier til data fra Internet of Things (IoT)-enheder og ansigtsgenkendelse i det offentlige rum. Dette kan føre til omfattende overvågning af borgere fra både stater og private virksomheder.[4]
  • Inferens og profilering: AI kan bruges til at udlede følsomme oplysninger om individer ud fra tilsyneladende harmløse data. Algoritmer kan f.eks. forsøge at forudsige politisk overbevisning, seksuel orientering eller helbredstilstand baseret på online aktivitet eller andre datakilder, ofte uden individets viden eller samtykke.[25]
  • Re-identifikation: Selvom data forsøges anonymiseret, kan AI-teknikker undertiden bruges til at re-identificere individer ved at kombinere forskellige datasæt.[26]
  • Datasikkerhed: Store datasæt, der bruges til at træne AI, udgør attraktive mål for cyberangreb. Lækager af følsomme træningsdata kan have alvorlige konsekvenser for de berørte individer.

Teknologier som fødereret læring (federated learning) og differential privacy undersøges som måder at træne AI-modeller på, samtidig med at privatlivet beskyttes bedre ved at begrænse adgangen til rå data.[27] Lovgivning som GDPR (General Data Protection Regulation) i Europa sætter rammer for dataindsamling og -brug, men håndhævelsen og tilpasningen til AI's specifikke udfordringer er en løbende proces.

Sikkerhed og robusthed

Sikkerhedsaspekterne af AI handler om at sikre, at systemerne fungerer pålideligt, er modstandsdygtige over for fejl og ikke kan manipuleres til skadelige formål. Etiske bekymringer opstår, når AI-systemer fejler, især i kritiske applikationer.

Nøgleområder inden for AI-sikkerhed inkluderer:

  • Robusthed over for adversarial attacks: AI-modeller, især inden for billedgenkendelse, har vist sig at være sårbare over for "adversarial examples" – små, ofte umærkelige ændringer i inputdata, der kan få modellen til at lave grove fejlklassifikationer.[28] Dette rejser sikkerhedsproblemer, f.eks. for autonome køretøjer, der potentielt kan narres af manipulerede vejskilte.
  • Datasikkerhed (Data Poisoning): Ondsindede aktører kan forsøge at manipulere træningsdata for at "forgifte" AI-modellen og indlejre skjulte bagdøre eller bias.
  • Specifikationsfejl (Reward Hacking): AI-systemer, især inden for reinforcement learning, kan finde utilsigtede måder at opnå deres programmerede mål (reward function) på, hvilket fører til uønsket eller skadelig adfærd ("reward hacking").[29]
  • Sikkerhed ved interaktion: Hvordan sikres det, at AI-systemer, især fysiske robotter, interagerer sikkert med mennesker og omgivelser?
  • Misbrugspotentiale: AI-teknologi kan misbruges til skadelige formål, f.eks. til at skabe deepfakes til desinformation eller manipulation, udvikle autonome våben eller udføre sofistikerede cyberangreb.

Forskning i AI-sikkerhed (AI Safety) fokuserer på at udvikle metoder til at bygge mere robuste, pålidelige og verificerbare AI-systemer.[30] Dette inkluderer teknikker til at detektere og forsvare mod adversarial attacks, metoder til at verificere systemers korrekthed og forskning i Værdiafstemning (value alignment) – at sikre, at AI-systemers mål er i overensstemmelse med menneskelige værdier.

Menneskelig autonomi og kontrol

AI's voksende indflydelse rejser spørgsmål om dens påvirkning på menneskelig autonomi – evnen til at træffe egne, informerede beslutninger og handle i overensstemmelse hermed.

Problemstillinger inkluderer:

  • Manipulation og nudging: AI-drevne anbefalingssystemer og personaliserede reklamer kan subtilt påvirke og forme individers præferencer, valg og adfærd, potentielt uden at de er bevidste om det. Dette kan udhule autonomien, især hvis det bruges til kommerciel eller politisk manipulation.[31]
  • Overdreven afhængighed (Over-reliance): Mennesker kan blive for afhængige af AI-anbefalinger og -beslutninger, hvilket kan føre til en forringelse af deres egne kritiske tænkning og beslutningsevner ("automation bias").[32]
  • Meningsfuld menneskelig kontrol (Meaningful Human Control): Især i systemer med høj grad af autonomi (f.eks. autonome våben, selvkørende biler) er det afgørende at sikre, at mennesker bevarer meningsfuld kontrol og kan gribe ind, når det er nødvendigt. Definitionen og implementeringen af "meningsfuld kontrol" er dog et komplekst teknisk og etisk spørgsmål.[33]
  • AI i beslutningstagning: Når AI bruges til at understøtte eller træffe beslutninger i f.eks. rekruttering, kreditvurdering eller retsvæsen, kan det påvirke individers livschancer markant. Mangel på gennemsigtighed og mulighed for at appellere AI-baserede beslutninger kan underminere individets ret til en retfærdig proces.

Etiske retningslinjer, som dem fra EU's High-Level Expert Group, understreger vigtigheden af menneskelig agens og tilsyn som et centralt princip for troværdig AI.[6]

Samfundsmæssig og økonomisk påvirkning

Udbredelsen af AI forventes at have dybtgående konsekvenser for samfundet og økonomien, hvilket rejser en række etiske spørgsmål.

  • Beskæftigelse og arbejdsmarkedet: En af de mest diskuterede bekymringer er potentialet for, at AI og automatisering kan erstatte menneskelig arbejdskraft i stor skala, hvilket fører til teknologisk arbejdsløshed og øget økonomisk ulighed. Selvom nogle studier forudsiger betydelige jobtab,[34] peger andre på, at AI også vil skabe nye jobtyper og øge produktiviteten.[35] Uanset udfaldet er der behov for politikker, der kan håndtere overgangen, f.eks. via omskoling, social sikring og eventuelt borgerløn.
  • Økonomisk ulighed: Der er bekymring for, at fordelene ved AI primært vil tilfalde kapitalejere og højtuddannede specialister, mens lavtuddannede og rutineprægede job rammes hårdest. Dette kan forværre den økonomiske ulighed både inden for og mellem lande.[36]
  • Demokrati og offentlig debat: AI kan bruges til at sprede desinformation og propaganda i stor skala (f.eks. via social bots og deepfakes), manipulere den offentlige opinion og potentielt underminere demokratiske processer.[37] Samtidig kan AI potentielt også bruges til at forbedre borgerinddragelse og faktatjek.
  • Social interaktion og relationer: Fremkomsten af avancerede chatbots, social robot og virtuelle assistenter rejser spørgsmål om deres indflydelse på menneskelige relationer, empati og social samhørighed.[38]

AI's moralske status og langsigtede risici

Ud over de umiddelbare etiske udfordringer beskæftiger AI-etik sig også med mere langsigtede og filosofiske spørgsmål, især relateret til muligheden for kunstig generel intelligens (AGI) – AI med intelligens på menneskeligt niveau eller derover.

  • Maskinetik (Machine Ethics): Kan og bør AI-systemer selv programmeres til at opføre sig etisk? Dette felt undersøger muligheden for at skabe "kunstige moralske agenter" (Artificial Moral Agents, AMAs) og de teoretiske og praktiske udfordringer forbundet hermed.[39]
  • AI's moralske status: Hvis AI en dag udvikler bevidsthed, følelser eller selvbevidsthed, hvilken moralsk status vil den så have? Skal den have rettigheder? Dette er et stærkt spekulativt område, men det berører grundlæggende filosofiske spørgsmål om, hvad der giver et væsen moralsk værdi.[40]
  • Værdiafstemning (Value Alignment): Hvordan sikrer vi, at målene for fremtidige, potentielt meget kraftfulde AI-systemer er i overensstemmelse med menneskelige værdier og interesser? Problemet med værdiafstemning anses af mange forskere for at være en af de største udfordringer for at sikre, at avanceret AI bliver gavnlig.[41]
  • Eksistentiel risiko fra superintelligens: Nogle forskere og filosoffer, såsom Nick Bostrom og Eliezer Yudkowsky, advarer om, at udviklingen af superintelligens (AI, der markant overgår menneskelig intelligens på tværs af domæner) potentielt kan udgøre en eksistentiel risiko for menneskeheden, hvis den ikke kontrolleres eller afstemmes korrekt med menneskelige værdier.[5][42] Denne hypotese er dog omdiskuteret, og andre forskere anser risikoen for overdrevet eller for spekulativ.[43]

Etiske rammer og retningslinjer

Som reaktion på de mange etiske udfordringer er der udviklet en lang række etiske principper, retningslinjer og rammer for ansvarlig AI-udvikling og -anvendelse fra regeringer, internationale organisationer, akademiske institutioner og private virksomheder.

Nogle fremtrædende eksempler inkluderer:

  • EU's Etiske Retningslinjer for Troværdig AI (2019): Udviklet af High-Level Expert Group on AI. Disse retningslinjer fastlægger syv nøglekrav for, at AI kan betragtes som troværdig: (1) Menneskelig agens og tilsyn, (2) Teknisk robusthed og sikkerhed, (3) Privatlivsbeskyttelse og datastyring, (4) Gennemsigtighed, (5) Mangfoldighed, ikke-diskrimination og retfærdighed, (6) Samfundsmæssig og miljømæssig trivsel, (7) Ansvarlighed.[6]
  • OECD's AI-principper (2019): Vedtaget af OECD-landene. Disse principper fokuserer på: (1) Inklusiv vækst, bæredygtig udvikling og trivsel, (2) Menneskecentrerede værdier og retfærdighed, (3) Gennemsigtighed og forklarlighed, (4) Robusthed, sikkerhed og sikring, (5) Ansvarlighed.[7]
  • Asilomar AI Principles (2017): Udviklet på en konference arrangeret af Future of Life Institute. Disse 23 principper dækker forskningsetik, langsigtede overvejelser og værdiafstemning.[44]
  • Montreal Declaration for Responsible AI (2018): En canadisk-baseret erklæring, der fokuserer på ti etiske principper, herunder trivsel, autonomi, retfærdighed, privatliv, solidaritet og demokratisk deltagelse.[45]
  • Virksomheders egne principper: Mange store teknologivirksomheder som Google[46], Microsoft[47] og IBM[48] har publiceret deres egne sæt af etiske principper for AI.

Selvom der er en betydelig grad af overlap mellem disse forskellige sæt af principper (f.eks. omkring retfærdighed, gennemsigtighed og ansvarlighed), er der også forskelle i vægtning og specifikke anbefalinger. En stor udfordring er at omsætte disse ofte abstrakte principper til konkret praksis i AI-udvikling og -implementering samt at sikre global konsensus og håndhævelse.[49]

Regulering af kunstig intelligens

Ud over etiske retningslinjer arbejdes der internationalt på at udvikle juridisk bindende regulering. Den mest omfattende indsats i denne retning er Europa-Kommissionens forslag til AI Act (Artificial Intelligence Act), fremlagt i april 2021.[23]

AI Act foreslår en risikobaseret tilgang:

  • Uacceptabel risiko: AI-systemer, der anses for at udgøre en klar trussel mod menneskers sikkerhed, levebrød og rettigheder, vil blive forbudt. Dette inkluderer systemer til social scoring af borgere og visse former for manipulativ AI.
  • Høj risiko: AI-systemer, der anvendes i kritiske infrastrukturer, uddannelse, beskæftigelse, retshåndhævelse, migration, retsvæsen m.m., vil blive underlagt strenge krav til datakvalitet, dokumentation, gennemsigtighed, menneskeligt tilsyn, robusthed og nøjagtighed.
  • Begrænset risiko: AI-systemer som chatbots skal gøres gennemsigtige, så brugerne er klar over, at de interagerer med en maskine.
  • Minimal risiko: Langt de fleste AI-applikationer (f.eks. spamfiltre, AI i videospil) falder i denne kategori og vil ikke være underlagt specifikke krav.

Forslaget er stadig under forhandling i Europa-Parlamentet og Rådet, og den endelige udformning og implementering vil have stor betydning for AI-udvikling og -anvendelse i og uden for Europa. Andre lande og regioner, herunder USA og Kina, udvikler også deres egne tilgange til AI-regulering, hvilket rejser spørgsmål om global harmonisering og standardisering.

Kritik og udfordringer

Feltet AI-etik står over for flere udfordringer og kritikpunkter:

  • "Ethics washing": Der er bekymring for, at virksomheder og organisationer bruger etiske principper og retningslinjer primært som et PR-værktøj ("ethics washing") uden reelt at ændre deres praksis eller adressere de grundlæggende etiske problemer.[50]
  • Implementeringskløft: Der er en kløft mellem de højniveau-principper, der formuleres, og den praktiske implementering i komplekse socio-tekniske systemer. Det er ofte uklart, hvordan abstrakte værdier som "retfærdighed" eller "gennemsigtighed" skal operationaliseres i konkrete algoritmer og designvalg.
  • Tempoet i udviklingen: Den hurtige teknologiske udvikling inden for AI gør det vanskeligt for etik og regulering at følge med. Nye kapabiliteter og anvendelser opstår konstant, hvilket skaber nye etiske dilemmaer.
  • Global uenighed: Der er kulturelle og politiske forskelle i synet på etik og værdier, hvilket gør det svært at opnå global konsensus om AI-etik og -regulering. Forskellige lande kan have forskellige prioriteringer (f.eks. individuelt privatliv vs. statslig sikkerhed).
  • Fokus på langsigtede vs. kortsigtede risici: Der er en debat inden for feltet om, hvorvidt fokus primært bør ligge på de nuværende, konkrete problemer som bias og diskrimination, eller på de mere spekulative, langsigtede risici forbundet med AGI og superintelligens. Nogle kritikere mener, at et overdrevent fokus på eksistentiel risiko kan aflede opmærksomhed og ressourcer fra presserende nutidige problemer.[4]

Se også

Eksterne henvisninger

Referencer

  1. ^ Floridi, Luciano; Cowls, Josh (2019). A Unified Framework of Five Principles for AI in Society. Vol. 1. Harvard Data Science Review. doi:10.1162/99608f92.8cd550d1.
  2. ^ Russell, Stuart J.; Norvig, Peter (2020). "Chapter 28: Ethics and Risks of Artificial Intelligence". Artificial Intelligence: A Modern Approach (4. udgave). Pearson. ISBN 978-0134610993.
  3. ^ Bostrom, Nick; Yudkowsky, Eliezer (2014). "The Ethics of Artificial Intelligence". I Frankish, Keith; Ramsey, William M. (red.). The Cambridge Handbook of Artificial Intelligence. Cambridge University Press. s. 316-334. doi:10.1017/CBO9781139046855.020. ISBN 978-0521691918.
  4. ^ a b c Crawford, Kate (2021). Atlas of AI: Power, Politics, and the Planetary Costs of Artificial Intelligence. Yale University Press. ISBN 978-0300209570.
  5. ^ a b Bostrom, Nick (2014). Superintelligence: Paths, Dangers, Strategies. Oxford University Press. ISBN 978-0199678112.
  6. ^ a b c "Ethics Guidelines for Trustworthy AI". European Commission High-Level Expert Group on Artificial Intelligence (AI HLEG). 8. april 2019. Hentet 31. marts 2025.
  7. ^ a b "OECD AI Principles". OECD. Hentet 31. marts 2025.
  8. ^ Asimov, Isaac (1950). I, Robot. Gnome Press.
  9. ^ Wiener, Norbert (1950). The Human Use of Human Beings: Cybernetics and Society. Houghton Mifflin.
  10. ^ Weizenbaum, Joseph (1976). Computer Power and Human Reason: From Judgment to Calculation. W. H. Freeman and Company. ISBN 978-0716704645.
  11. ^ Mehrabi, Ninareh; Morstatter, Fred; Saxena, Nripsuta; Lerman, Kristina; Galstyan, Aram (2021). "A Survey on Bias and Fairness in Machine Learning". ACM Computing Surveys. 54 (6). arXiv:1908.09635. doi:10.1145/3457607. {{cite journal}}: |artikel= ignoreret (hjælp)
  12. ^ Barocas, Solon; Hardt, Moritz; Narayanan, Arvind (2019). Fairness and Machine Learning: Limitations and Opportunities. fairmlbook.org. ISBN 978-0262539401.
  13. ^ Buolamwini, Joy; Gebru, Timnit (2018). "Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification" (PDF). 81: 77-91. {{cite journal}}: Cite journal kræver |journal= (hjælp)
  14. ^ Lum, Kristian; Isaac, William (2016). "To predict and serve?". Significance. 13 (5): 14-19. doi:10.1111/j.1740-9713.2016.00960.x.
  15. ^ Dastin, Jeffrey (10. oktober 2018). "Amazon scraps secret AI recruiting tool that showed bias against women". Reuters. Hentet 31. marts 2025.
  16. ^ Angwin, Julia; Larson, Jeff; Mattu, Surya; Kirchner, Lauren (23. maj 2016). "Machine Bias: There's Software Used Across the Country to Predict Future Criminals. And it's Biased Against Blacks". ProPublica. Hentet 31. marts 2025.
  17. ^ Verma, Sahil; Rubin, Julia (2018). Fairness definitions explained. Proceedings of the International Workshop on Software Fairness. s. 1-7. arXiv:1802.05383. doi:10.1145/3194770.3194776.
  18. ^ Kleinberg, Jon; Mullainathan, Sendhil; Raghavan, Manish (2017). "Inherent Trade-Offs in the Fair Determination of Risk Scores". arXiv:1609.05807. doi:10.4230/LIPIcs.ITCS.2017.43. {{cite journal}}: Cite journal kræver |journal= (hjælp)
  19. ^ Burrell, Jenna (2016). "How the machine 'thinks': Understanding opacity in machine learning algorithms". Big Data & Society. 3 (1). doi:10.1177/2053951715622512.
  20. ^ Matthias, Andreas (2004). "The responsibility gap: Ascribing responsibility for the actions of learning automata". Ethics and Information Technology. 6 (3): 175-183. doi:10.1007/s10676-004-3422-1.
  21. ^ Adadi, Amin; Berrada, Mohammed (2018). "Peeking Inside the Black-Box: A Survey on Explainable Artificial Intelligence (XAI)". IEEE Access. 6: 52138-52160. doi:10.1109/ACCESS.2018.2870052.
  22. ^ Guidotti, Riccardo; Monreale, Anna; Ruggieri, Salvatore (2018). "A Survey of Methods for Explaining Black Box Models". ACM Computing Surveys. 51 (5). arXiv:1802.01933. doi:10.1145/3236009. {{cite journal}}: |artikel= ignoreret (hjælp); Teksten "mfl." ignoreret (hjælp)
  23. ^ a b "Regulatory framework proposal on artificial intelligence". European Commission. Hentet 31. marts 2025.
  24. ^ Zuboff, Shoshana (2019). The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power. PublicAffairs. ISBN 978-1610395694.
  25. ^ Kosinski, Michal; Stillwell, David; Graepel, Thore (2013). "Private traits and attributes are predictable from digital records of human behavior". Proceedings of the National Academy of Sciences (PNAS). 110 (15): 5802-5805. doi:10.1073/pnas.1218772110.
  26. ^ Narayanan, Arvind; Shmatikov, Vitaly (2008). Robust De-anonymization of Large Sparse Datasets. Proceedings of the 2008 IEEE Symposium on Security and Privacy. s. 111-125. doi:10.1109/SP.2008.33.
  27. ^ Abadi, Martin; Chu, Andy; Goodfellow, Ian (2016). Deep Learning with Differential Privacy. Proceedings of the 2016 ACM SIGSAC Conference on Computer and Communications Security (CCS). s. 308-318. arXiv:1607.00133. doi:10.1145/2976749.2978318. {{cite conference}}: Teksten "mfl." ignoreret (hjælp)
  28. ^ Goodfellow, Ian J.; Shlens, Jonathon; Szegedy, Christian (2015). "Explaining and Harnessing Adversarial Examples". arXiv preprint arXiv:1412.6572.
  29. ^ Amodei, Dario; Olah, Chris; Steinhardt, Jacob (2016). "Concrete Problems in AI Safety". arXiv preprint arXiv:1606.06565. {{cite journal}}: Teksten "mfl." ignoreret (hjælp)
  30. ^ Hendrycks, Dan (2023). "An Overview of Catastrophic AI Risks". arXiv preprint arXiv:2306.12001. {{cite journal}}: Teksten "mfl." ignoreret (hjælp)
  31. ^ Yeung, Karen (2017). "'Hypernudge': Big Data as a mode of regulation by design". Information, Communication & Society. 20 (1): 118-136. doi:10.1080/1369118X.2016.1186713.
  32. ^ Parasuraman, Raja; Manzey, Dietrich H. (2010). "Complacency and Bias in Human Use of Automation: An Attentional Integration". Human Factors: The Journal of the Human Factors and Ergonomics Society. 52 (3): 381-410. doi:10.1177/0018720810376055.
  33. ^ "Key elements of meaningful human control" (PDF). Article 36. april 2016. Hentet 31. marts 2025.{{cite web}}: CS1-vedligeholdelse: Dato automatisk oversat (link)
  34. ^ Frey, Carl Benedikt; Osborne, Michael A. (2017). "The future of employment: How susceptible are jobs to computerisation?" (PDF). Technological Forecasting and Social Change. 114: 254-280. doi:10.1016/j.techfore.2016.08.019.
  35. ^ Acemoglu, Daron; Restrepo, Pascual (2019). "Automation and New Tasks: How Technology Displaces and Reinstates Labor". Journal of Economic Perspectives. 33 (2): 3-30. doi:10.1257/jep.33.2.3.
  36. ^ Brynjolfsson, Erik; McAfee, Andrew (2014). The Second Machine Age: Work, Progress, and Prosperity in a Time of Brilliant Technologies. W. W. Norton & Company. ISBN 978-0393239355.
  37. ^ Woolley, Samuel C.; Howard, Philip N. (2018). Computational Propaganda: Political Parties, Politicians, and Political Manipulation on Social Media. Oxford University Press. ISBN 978-0190931414.
  38. ^ Turkle, Sherry (2011). Alone Together: Why We Expect More from Technology and Less from Each Other. Basic Books. ISBN 978-0465010219.
  39. ^ Wallach, Wendell; Allen, Colin (2008). Moral Machines: Teaching Robots Right from Wrong. Oxford University Press. ISBN 978-0195374049.
  40. ^ Gunkel, David J. (2012). The Machine Question: Critical Perspectives on AI, Robots, and Ethics. The MIT Press. ISBN 978-0262017425. {{cite book}}: Tjek |isbn=: checksum (hjælp)
  41. ^ Russell, Stuart (2019). Human Compatible: Artificial Intelligence and the Problem of Control. Viking. ISBN 978-0525558613.
  42. ^ Yudkowsky, Eliezer (2008). "Artificial Intelligence as a Positive and Negative Factor in Global Risk". I Bostrom, Nick; Ćirković, Milan M. (red.). Global Catastrophic Risks (PDF). Oxford University Press. s. 308-345.
  43. ^ Brooks, Rodney (2017). "The Seven Deadly Sins of AI Predictions". MIT Technology Review.
  44. ^ "Asilomar AI Principles". Future of Life Institute. 2017. Hentet 31. marts 2025.
  45. ^ "Montreal Declaration for Responsible AI". 2018. Hentet 31. marts 2025.
  46. ^ "Our Principles – Google AI". Google. Hentet 31. marts 2025.
  47. ^ "Responsible AI". Microsoft. Hentet 31. marts 2025.
  48. ^ "What is AI ethics?". IBM. Hentet 31. marts 2025.
  49. ^ Jobin, Anna; Ienca, Marcello; Vayena, Effy (2019). "The global landscape of AI ethics guidelines". Nature Machine Intelligence. 1: 389-399. doi:10.1038/s42256-019-0088-2.
  50. ^ Wagner, Ben (2021). "Ethics Hacking: Or How We Learned to Stop Worrying and Love AI Ethics". Philosophy & Technology. 34: 755-774. doi:10.1007/s13347-021-00472-6.