Chat-GPT versucht erfolglos die MDR zu umgehen

#ChatGPT ändert offensichtlich die Antworten auf Fragen nach der eigenen Zweckbestimmung. Inzwischen tauchen dort Hinweise auf, dass die medizinischen Informationen nur dem wissenschaftlichen Austausch von Fachkreisen dienen etc. Dies scheint ein Versuch zu sein, die diskutierte Anwendbarkeit der MDR und damit die Qualifizierungspflicht als #Medizinprodukt zu umgehen.
Der Versuch, allein über die Zweckbestimmung dem Medizinprodukt zu entkommen, wird juristisch jedoch nicht gelingen. Richtig ist, dass grundsätzlich die subjektive Zweckbestimmung des Herstellers für eine Einstufung als Medizinprodukt relevant ist. Jedoch ist auch nach den Empfehlungen des #BfArM das kommunikative Umfeld und die „Anhaltsfunktionen“ bei der Einstufung der Software zu berücksichtigen. Spielt man ein wenig mit den Eingaben herum, stößt man schnell auf einige Antworten des Chats, die auf eine ungefilterte Therapieanweisung schließen lassen. Für den Nutzer kann nicht erkannt werden, dass er diese nicht als qualifizierte Empfehlung ernst nehmen darf. Einen solchen Disclaimer gibt ChatGPT bei den einzelnen Antworten nicht aus.
ChatGPT setzt hier einen neuen Standard. Es wäre aber zu plump das grundlegende Risikopotential und die Qualifizierungsnotwendigkeit eines solchen Tools in der Medizin durch eine einfache „Eigendeklaration“ zu ignorieren. Ein so komplexes und kommunizierendes Produkt muss sich bei jeder einzelnen Antwort im Bereich Gesundheit an dem Maßstab der MDR messen lassen und entsprechende Disclaimer oder Qualifikationen vorweisen. Das ist heute nicht der Fall.

PS: ChatGPT hat das Medizinerexamen bestanden. Vielleicht kann ChatGPT ja leichter eine Approbation statt einer Zulassung als Medizinprodukt erlangen.
😉