E-HEALTH-COM ist das unabhängige Fachmagazin für Gesundheitstelematik, vernetzte Medizintechnik , Telemedizin und Health-IT für Deutschland, Österreich und die Schweiz.
Mehr

Für das ePaper anmelden

Geben Sie Ihren Benutzernamen und Ihr Passwort ein, um sich an der Website anzumelden

Anmelden

Passwort vergessen?

Health-IT |

ChatGPT: Wer bin ich und wenn ja wie viele?

Künstliche Intelligenz allerorten: Spätestens mit ChatGPT ist die künstliche Intelligenz (KI) aus ihrer Nerd-Ecke ausgebrochen. Einer Hamburger Kanzlei schmeckt das nicht.

Bild: © Timon – stock.adobe.com, 558672396, Stand.-Liz.

Nichts mehr mit Nischenthema: Wenn künstliche Intelligenz (KI) anfängt, Schüleraufsätze zu schreiben, interessiert sich plötzlich die ganze deutsche Medienlandschaft dafür. Die Software ChatGPT hat es mittlerweile in nahezu jede Tageszeitung geschafft hat. Es handelt sich um ein so genanntes generatives KI-Modell des US-Unternehmens OpenAI. ChatGPT kann auf eine Vielzahl von Fragen menschenähnliche Antworten generieren und wird u.a von Microsoft unterstützt. Das hat jetzt auch die Konkurrenz auf den Plan gerufen: Auch Google bietet bald eine eigene generative KI unter dem Namen „Bard“ an.

 

Rechtlich stellen sich im Kontext von ChatGPT eine ganze Menge an Fragen. Zu den wichtigsten dürfte das Thema Copyright gehören: Die Trainingsalgorithmen hinter diesen Tools wühlen sich wie Tagebaubagger durch den Content des Internets und bedienen sich dort, ohne kenntlich zu machen, wo genau der Inhalt für ihre Antworten herkommt. Erste Online-Lexika verhindern mittlerweile derartige Zugriffe.

 

Im medizinischen Kontext wird es ebenfalls rechtlich spannend: Über wie viel Medizin darf eine generative KI reden, ohne dass die Patientensicherheit gefährdet wird? Die Hamburger Anwaltskanzlei von Sebastian Vorberg hat sich jetzt in einem Offenen Brief an das Bundesinstitut für Arzneimittel und Medizinprodukte (BfArM) gewandt und um eine quasi offiziell-behördliche Einschätzung gebeten. Konkret geht es um die Frage: Ist ChatGPT ein Medizinprodukt?

 

Klar ist, dass die Kalifornier ihr generatives KI-Modell nicht explizit für medizinische Zwecke entwickelt haben. Es handelt sich um eine breite, weitgehend themenoffene KI, die allerdings medizinische Zwecke auch nicht explizit ausnimmt. Zwar ist nicht jede Art der Fragestellung möglich bzw. es wird nicht jede Art der Fragestellung akzeptiert. Aber bei entsprechender Formulierung gibt die Software den Nutzer:innen durchaus detaillierte medizinische Antworten und konkrete Hilfestellungen bis hin zu Arzneimittelempfehlungen.

 

„Unserer Rechtsauffassung nach fällt diese Software in Deutschland und in Europa unter die
Regulation als Medizinprodukt. ChatGPT kann ohne weiteres zur Diagnose, Überwachung,
Behandlung oder Vorbeugung von Krankheiten verwendet werden“, so Vorberg und Kollegen in ihrem Brief an das BfArM. „Die Software liefert außerdem Informationen, die für Entscheidungen mit diagnostischen oder therapeutischen Zwecken herangezogen werden können.“

 

Die Anwälte vertreten die Auffassung, dass die Tatsache, dass medizinische Zwecke nicht explizit ausgenommen werden, eine medizinische Zweckgebung quasi beinhalte. Auch seien die Antworten, die ChatGPT bei entsprechenden Fragen gibt, nicht anders zu verstehen denn als konkrete medizinische Hilfestellungen. Es handele sich definitiv um mehr als nur verbal präsentierte Suchergebnisse. Sollten sich die deutschen und/oder europäischen Behörden dieser Auffassung anschließen, müssten unter Umständen Schritte unternommen werden, um entsprechende Aktivitäten der Software zu unterbinden.

 

Weitere Informationen:

Offener Brief von Vorberg.Law an das BfArM https://www.qur.digital/wp-content/uploads/2023/01/Offener-Brief-ChatGPT-Medizinprodukt.pdf

https://www.qur.digital/wp-content/uploads/2023/01/Offener-Brief-ChatGPT-Medizinprodukt.pdf

 

 

ChatGPT
https://chat.openai.com/chat