META
print

Sprachumschaltung

Navigationspfad


Inhaltsbereich

Fairness von Algorithmen, Vulnerabilität und Gerechtigkeit

Da mHealth Technologien immer mehr eine integrale Rolle in der Gesundheitsvorsorge spielen, ist es auch notwendig zu verstehen wie sie Menschenleben beeinflussen. Dieses Projekt erforscht die komplexen Wege, wie Algorithmus-generiertes Wissen, das durch mHealth Technologien entsteht, auf die Gesellschaft, Gemeinschaften und Individuen aus bestimmte sozial Gruppen einwirken.

Viele Wissenschaftler*innen und Daten-Expert*innen merken an, dass Algorithmen keine ‘neutralen’ mathematischen Formeln darstellen, sondern Werte sind, die im Code eingebettet sind. Dementsprechend können sie in dominanten normativen Vorurteilen über die Welt verankert sein und dadurch algorithmisches Bias befördern. Algorithmen, die von Bias beeinflusst sind, verzerren das Wissen, das mit mHealth Technologien produziert wird, und können manche Nutzer*innen benachteiligen, beziehungsweise ihre Vulnerabilität im Gesundheitswesen verschlimmern. Auf diese Art und Weise trägt algorithmisches Bias zur sozialen Ungerechtigkeit und Diskriminierung gegen Individuen bei, insbesondere die, die aus marginalisierte sozial Gruppen kommen.

Durch die Erforschung von Algorithmen und dem Wissen, das diese generieren bezweckt dieses Projekt algorithmische Gerechtigkeit voranzubringen. Die Entwicklung von fairen Algorithmen ist wesentlich für das Design von gerechten und inklusiven mHealth Technologien, was eine bessere allgemeine Gesundheitslage ermöglichen wird und eine diversen Gruppe von Nutzenden zugute kommen wird.

Hauptbeteiligte: Tereza Hendl