🚀 Fallstudie

Stellen Sie sich vor: Sie sind Senior Data Scientist Berater in einem IT-Beratungsunternehmen. Ein langjähriger Kunde, die Pfefferminzia Krankenversicherung, spricht Sie an: Bitte erstellen Sie aus den Smart Watch Daten unsere Versicherungskunden eine KI für Diabetes-Patienten, die bei besorgniserregenden Entwicklungen warnt. Unsere Versicherungskunden mit Diabetes, die am Programm SmartHealth+ teilnehmen, erhalten am Ende des Jahres eine Versicherungsprämie.

Was denken Sie?

  • Sollte man das überhaupt machen?
  • Welche Fehler haben die Daten vermutlich?
  • Wie kann der Code auditiert werden?
  • Welche Accuracy haben einfache, regelbasierte Ansätze?
  • Welche Strukturen gibt es im Prozess, um Fehler und Beschwerden zu bestimmen und einzubauen?
  • Wie divers ist das Team, dass das System baut?
  • Welche Fehlerraten haben die unterschiedlichen Untergruppen?

Fallstudie

Die deutsche Wikipedia schreibt1

Das Gesetz stuft u. a. folgende Anwendungsbereiche in die hohe Risikokategorie und damit als erlaubt ein:

  • Bewertung von Schülern
  • Zugangsprüfungen zur Universität
  • Bewerberauswahl, Beförderungen und Kündigungen im Arbeitsleben
  • Anspruch auf Sozialhilfe
  • Prognose von Rückfälligkeit bei Straftaten
  • Einschätzung von Sicherheitsrisikos oder eines ausgehenden Gesundheitsrisikos von Einzelnen bei Migration, Asyl sowie Grenzkontrollen

Zitiert wird hierfür die Quelle

Johannes Caspar: Wir Datensklaven. Wege aus der digitalen Ausbeutung. Berlin 2023, S. 215 f.

Studieren Sie die für einen Stichpunkt Ihrer Wahl den AI Act (im Original Gesetzestext oder in der Sekundär-Literatur). Machen Sie sich ein Bild: stimmt das? Und falls ja, was sind die Konsequenzen? Und wie nah sind wir aktuell an einer Umsetzung?

Referenzen: