Liebe Apothekerin, lieber Apotheker!

Künstliche Intelligenz, Large Language Models und Chat-Bots sind in aller Munde. Um künstliche Intelligenz allerdings trainieren zu können, bedarf es einerseits einer soliden Basis an verlässlichen Daten und andererseits eines beträchtlichen Maßes an humaner Intelligenz um falsche oder irreführende Ergebnisse und „Halluzinieren“ zu erkennen und zu vermeiden.

 

KI ist im Bereich Consumer Health nichts Neues

KI-gesteuerte Plattformen, die Zugang zu Gesundheitsinformationen ermöglichen, sind nichts Neues. Amazons sprachbasierte virtuelle Assistentin „Alexa“, die auf der Verarbeitung natürlicher Sprache bzw. maschinellem Lernen basiert, stellt seit Jahren spezifische Gesundheitsanwendungen bereit, die Verbrauchern gesundheitsbezogene Ratschläge geben.

In Großbritannien hat Amazon kostenlosen Zugang zu Gesundheitsinformationen erhalten, die vom britischen NHS (National Health Service) gesammelt wurden, um Verbrauchern über „Alexa“ sprachgestützte Gesundheitsberatung zu ermöglichen und so eine bessere Kontrolle über ihre Gesundheitsversorgung zu erhalten.

Darüber hinaus haben Spezialisten wie das Pharmaunternehmen Roche ihr eigenes sprachgestütztes Gesundheitstool namens „Sulli the Diabetes Guru“ entwickelt. Dieses basiert auf wissenschaftlich validierten, medizinischen Informationen und beantwortet die Fragen von Patienten die neu mit Diabetes diagnostiziert wurden.

Maßgeschneiderte KI-Gesundheitsdienste bieten Vorteile gegenüber generischen KI-Diensten

Die Qualität der Gesundheitsberatung durch solche maßgeschneiderten Dienste, die auf validierten wissenschaftlichen Inhalten basieren, kann höher sein als die eines generischen Chatbots wie ChatGPT. Einfach deshalb, weil der Lernalgorithmus auf validierten Daten basiert, die genauere und zuverlässigere Gesundheitsinformationen ermöglichen.

Generische Chatbots konzentrieren sich nicht unbedingt auf die Gesundheit und haben nicht den gleichen Zugang zu validierten wissenschaftlichen Inhalten. Im Vergleich zu spezialisierten KI-Diensten hat ein generischer Chatbot jedoch den Vorteil der sofortigen Verfügbarkeit, ohne dass zusätzliche Apps installiert werden müssen. Bis auf weiteres sollten in jedem Fall aber alle von einem KI-gesteuerten Tool bereitgestellten Informationen von medizinischem Fachpersonal unabhängig überprüft werden.

 

Ethische Bedenken bleiben bestehen

Es ist jedoch wichtig zu beachten, dass der Einsatz von KI in diesem Bereich auch einige ethische Bedenken aufwirft, beispielsweise Fragen im Zusammenhang mit Datenschutz und Datensicherheit.
Auf diesen Plattformen werden große Mengen an persönlichen Gesundheitsinformationen erfasst und gespeichert. Dies wirft Fragen darüber auf, wie diese Daten verwendet werden, wer Zugriff darauf hat und welche Maßnahmen ergriffen werden, um deren Sicherheit zu gewährleisten.

Darüber hinaus ist es wichtig zu beachten, dass KI-generierte Informationen möglicherweise nicht immer vollständig korrekt sind und dass validierte medizinische Datenquellen und Informationen von entscheidender Bedeutung sind, um die Sicherheit und das Wohlbefinden der Benutzer zu gewährleisten.

Den Link zum gesamten Blog finden Sie hier:

Auf den nachfolgenden Seiten haben wir außerdem wieder einzelne Produktkategorien herausgegriffen und näher für Sie analysiert sowie die Marktführer in den einzelnen Segmenten beleuchtet. Alle Marktanalysen stammen aus unserem Apothekenfeedbacksystem PIPOS (IQVIA Pharmacy Intelligence POS)

 

Mit besten Grüßen

Beatrix Linke
Country Lead