Cel szkolenia:
Celem szkolenia jest zapoznanie uczestników z głównymi wyzwaniami prawnymi związanymi z ochroną danych osobowych i informacji w kontekście wykorzystania sztucznej inteligencji (AI) w medycynie. Uczestnicy poznają najnowsze regulacje prawne, w tym EHDS (European Health Data Space), AI Act, AILD, RODO oraz regulacje krajowe, a także nauczą się, jak wdrożyć te przepisy w praktyce, zapewniając zgodność z prawem i bezpieczeństwo danych pacjentów.
Grupa docelowa:
• Pracownicy działów prawnych i compliance w firmach medycznych, szpitalach, klinikach i organizacjach zajmujących się technologiami medycznymi.
• Specjaliści ds. ochrony danych osobowych (IOD), administratorzy danych, osoby odpowiedzialne za IT i wdrożenia systemów AI w medycynie.
• Menedżerowie i liderzy projektów związanych ze stosowaniem AI w służbie zdrowia.
1. Wprowadzenie do sztucznej inteligencji (AI) w medycynie:
• Jak AI zmienia praktyki medyczne: diagnostyka, personalizacja leczenia, zarządzanie danymi pacjentów.
• Korzyści i wyzwania związane z wprowadzeniem AI w systemach ochrony zdrowia.
• Regulacje prawne dotyczące ochrony danych osobowych w kontekście AI:
• RODO (Rozporządzenie o Ochronie Danych Osobowych) – zasady ochrony danych osobowych, w tym dane wrażliwe (zdrowotne).
• EHDS (European Health Data Space) – cele i założenia europejskiej przestrzeni danych zdrowotnych, wspieranie interoperacyjności systemów zdrowotnych w UE.
• AI Act – regulacja dotycząca AI, określająca ramy prawne dotyczące bezpieczeństwa systemów AI w Europie.
2. RODO i jego zastosowanie w medycynie
• Podstawowe zasady RODO w kontekście ochrony danych osobowych w medycynie:
• Definicja danych osobowych i danych wrażliwych (dane zdrowotne).
• Zgoda pacjenta na przetwarzanie danych osobowych w kontekście sztucznej inteligencji (przetwarzanie danych wrażliwych).
• Przetwarzanie danych osobowych w celach medycznych: analiza zgodności z zasadą minimalizacji danych, przechowywania i anonimowości.
• Przesłanki legalności przetwarzania danych w medycynie:
• Zgoda pacjenta, interes publiczny, interesy życiowe pacjenta, wykonanie umowy.
• Specyfika przetwarzania danych wrażliwych w kontekście zdrowia – szczególna kategoria danych.
• Przepływ danych w ekosystemie AI w medycynie:
• Przykłady zastosowania AI w medycynie (analiza obrazów medycznych, personalizowane leczenie, systemy wspomagania decyzji klinicznych).
• Wyzwania związane z bezpieczeństwem danych pacjentów:
o Dane wrażliwe: Dane medyczne są klasyfikowane jako dane wrażliwe, co wymaga szczególnej ochrony.
o Zgoda na przetwarzanie: Wymóg uzyskania wyraźnej zgody pacjenta na przetwarzanie danych, co może być trudne w przypadku systemów AI, które często wymagają dużych zbiorów danych.
o Minimalizacja danych: Zasada minimalizacji danych (przetwarzanie tylko niezbędnych danych) może być trudna do pogodzenia z potrzebami systemów AI, które często wymagają dużych ilości danych.
o Prawa osób: Pacjenci mają prawo do wycofania zgody, sprostowania danych lub ich usunięcia, co może być trudne do zrealizowania w systemach AI.
3. EHDS – Europejska przestrzeń danych zdrowotnych
• Cele i założenia EHDS:
• Umożliwienie bezpiecznego dzielenia się danymi zdrowotnymi w całej UE.
• Wspieranie innowacji i rozwoju medycyny personalizowanej.
• Zasady gromadzenia, przechowywania i przetwarzania danych zdrowotnych w ramach EHDS:
• Wymogi dotyczące interoperacyjności systemów.
• Przepisy dotyczące zgody pacjentów na udostępnianie danych zdrowotnych.
• Wyzwania związane z zarządzaniem danymi zdrowotnymi w systemach AI.
• Bezpieczeństwo i prywatność w EHDS:
• Jakie mechanizmy ochrony danych są wymagane w ramach EHDS, by zapewnić zgodność z RODO i innymi regulacjami dotyczącymi ochrony prywatności.
• Wyzwania
o Udostępnianie danych: EHDS umożliwia szerokie udostępnianie danych zdrowotnych, co może prowadzić do ryzyka nieuprawnionego dostępu.
o Zgoda pacjenta: Wymagana jest jasna i świadoma zgoda pacjenta na przetwarzanie danych, co może być trudne do zrealizowania w przypadku złożonych systemów AI.
o Anonimizacja danych: Trudność w zapewnieniu pełnej anonimizacji danych medycznych, które często są wysoce wrażliwe.
4. AI Act – Regulacje dotyczące sztucznej inteligencji w medycynie
• Główne założenia AI Act:
• Czym jest sztuczna inteligencja i jak klasyfikuje się systemy AI pod kątem ryzyka?
• Obowiązki dla dostawców systemów AI: rejestracja, dokumentacja, monitorowanie.
• Kategorie ryzyka AI – od minimalnego do wysokiego.
• Zastosowanie AI Act w medycynie:
• Jakie systemy AI w medycynie klasyfikowane są jako wysokiego ryzyka (np. AI wspomagające diagnostykę, systemy wspierające decyzje terapeutyczne)?
• Wymogi dotyczące certyfikacji i nadzoru systemów AI.
• Przepisy dotyczące odpowiedzialności za systemy AI i ryzyko związane z ich błędnym działaniem.
• Wyzwania związane z implementacją AI Act w medycynie:
• Jak zapewnić zgodność systemów AI w medycynie z wymaganiami AI Act.
• Przykłady praktyczne i analiza ryzyka.
• Wyzwania:
• Klasyfikacja systemów AI: Systemy AI w medycynie często są klasyfikowane jako wysokiego ryzyka, co wymaga spełnienia surowych wymogów (np. walidacja, audyty, przejrzystość).
• Odpowiedzialność za decyzje AI: Trudność w określeniu, kto ponosi odpowiedzialność za decyzje podejmowane przez AI (producent, dostawca, lekarz).
• Przejrzystość i wyjaśnialność: Wymóg, aby systemy AI były "wyjaśnialne" (explainable), co może być trudne w przypadku zaawansowanych algorytmów uczenia maszynowego.
5. AILD – Odpowiedzialność za szkody wyrządzone przez AI
• Cel i założenia AILD (Artificial Intelligence Liability Directive):
• Jakie mechanizmy odpowiedzialności za szkody wyrządzone przez AI zostaną wprowadzone w UE?
• Jakie będą zasady dochodzenia roszczeń przez osoby poszkodowane przez błędy AI (np. błędne diagnozy)?
• Zasady odpowiedzialności za błędne działanie systemów AI w medycynie:
• Kto ponosi odpowiedzialność: dostawca systemu AI, użytkownik, instytucje medyczne?
• Jakie zasady odpowiedzialności cywilnej obowiązują w kontekście sztucznej inteligencji w medycynie?
• Przykłady potencjalnych sytuacji odpowiedzialności za błędy AI w medycynie:
• Błędy diagnostyczne.
• Niewłaściwe rekomendacje leczenia.
• Strategie minimalizowania ryzyka odpowiedzialności:
• Monitorowanie, audyty, testowanie systemów AI.
• Procedury zabezpieczające przed błędami w procesie wprowadzenia i użytkowania AI w medycynie.
• Wyzwania:
o Dowód szkody: Pacjenci muszą udowodnić, że szkoda została spowodowana przez system AI, co może być trudne ze względu na złożoność technologii.
o Odpowiedzialność zbiorowa: W przypadku systemów AI opracowanych przez wiele podmiotów (np. dostawcy oprogramowania, lekarze, szpitale) trudno jest określić, kto ponosi odpowiedzialność.
6. IoT (Internet of Things)
• Urządzenia IoT w medycynie (np. wearables, implanty) generują ogromne ilości danych, co stwarza nowe wyzwania prawne.
• Wyzwania:
o Bezpieczeństwo danych: Urządzenia IoT są często podatne na cyberataki, co stanowi zagrożenie dla poufności danych medycznych.
o Ciągłe przetwarzanie danych: IoT często przetwarza dane w czasie rzeczywistym, co wymaga ciągłego monitorowania zgodności z RODO.
o Integracja z systemami AI: Dane z IoT są często wykorzystywane przez systemy AI, co zwiększa ryzyko naruszeń prywatności.
7. Inne wyzwania
• Fragmentacja prawa: Różnice w implementacji przepisów unijnych w poszczególnych krajach mogą utrudniać zgodność.
• Krajowe organy nadzorcze: Wymóg współpracy z krajowymi organami nadzorczymi (np. PUODO w Polsce) w zakresie ochrony danych.
• Zarządzanie zgodą pacjenta w kontekście AI:
o Jak zdobywać i dokumentować zgodę pacjenta w przypadku systemów AI?
o Jakie elementy powinny znaleźć się w polityce prywatności i umowach z pacjentami?
o Interoperacyjność systemów AI w kontekście ochrony danych:
o Jakie wyzwania wiążą się z wymianą danych między systemami AI w różnych placówkach medycznych?
o Przestrzeganie zasad RODO przy integracji różnych systemów zdrowotnych.