Aus den genannten Einsatzfeldern wird klar: KI bietet große Chancen für das BGM. Doch von der Theorie in die Praxis ist es noch weit. Der Einsatz von KI steht vor Hürden, die Unternehmen zuerst nehmen müssen.
Schlechte Datenqualität
Damit eine KI ihr volles Potenzial entfalten kann, benötigt sie hochwertige, gut strukturierte und vollständige Daten. In vielen Unternehmen sind die Gesundheitsdaten jedoch oft fragmentiert, inkonsistent oder in unterschiedlichen Formaten gespeichert – zum Beispiel Datenbanken, Excel-Tabellen oder PDFs. Diese schlechte Datenqualität macht eine Auswertung durch KI schwierig. Bevor Unternehmen KI im BGM einsetzen, müssen sie sich daher zuerst um eine saubere Datenbasis kümmern.
Versteckte Diskriminierung und Bias
Eine KI ist nur so gut wie die Daten, mit denen sie trainiert wird. Sind diese Daten einseitig, kann der Algorithmus voreingenommene oder sogar diskriminierende Schlüsse ziehen. Ein klassisches Beispiel: Eine KI, die hauptsächlich mit den Gesundheitsdaten von Büroangestellten trainiert wurde, gibt möglicherweise völlig unpassende oder sogar gesundheitsschädliche Empfehlungen für Mitarbeitende in der Logistik oder Produktion. Unternehmen müssen daher sicherstellen, dass ihre KI-Systeme auf vielfältigen und repräsentativen Datensätzen basieren und regelmäßig auf mögliche Verzerrungen (Bias) überprüft werden.
Auswirkungen auf die Gesundheit
Bei all den Chancen, die KI bietet, dürfen Unternehmen eines nicht vergessen: KI selbst kann schlecht für die Gesundheit sein – was wiederum BGM-Maßnahmen erfordert. Studien betonen die ambivalente Wirkung von KI auf Mitarbeitende. So kann KI zwar Produktivität, Engagement und Arbeitszufriedenheit positiv beeinflussen. Sie kann aber auch Stress auslösen, der zu erhöhter Erschöpfung führt, Konflikte zwischen Beruf und Familie verstärkt und die Arbeitszufriedenheit senkt.6 Studien aus dem asiatischen Raum legen zudem nahe, dass KI Einsamkeit und Isolation bei Beschäftigten begünstigt. Zudem kann sich die KI-Nutzung negativ auf das Denkverhalten auswirken, wie eine Gehirnscan-Studie von ChatGPT-Nutzer:innen des MIT zeigt. Die Selbstwirksamkeit von Beschäftigten beim Lernen von KI zu fördern, ist deshalb eine wichtige Aufgabe, sagen Forschende.
Datenschutz: Die Achillesferse der Gesundheits-KI
Gesundheitsdaten gehören zu den sensibelsten Informationen überhaupt. Ihre Verarbeitung wird in Europa durch die Datenschutz-Grundverordnung (DSGVO) geregelt. Auch im Kontext KI stellt sich dadurch die Frage: Wie stellen wir sicher, dass die Daten geschützt sind und die Privatsphäre von Beschäftigten gewahrt bleibt? Für Unternehmen sind eine absolute Transparenz, strenge Anonymisierung und klare Zweckbindung der Daten unverzichtbar. Dafür müssen sie aber prüfen, ob ein KI-Hersteller auch datenschutzrechtlich Verantwortlicher ist. Hat dieser seinen Sitz nicht in der EU, wie es bei den großen KI-Anbietern häufig der Fall ist, sind Betroffenenrechte bisher nur schwer durchsetzbar. Deshalb gilt es, sich datenschutzrechtlich abzusichern, bevor eine KI eingesetzt wird.