Sztuczna inteligencja a prawo

Gwałtowna ekspansja sztucznej inteligencji (AI) stała się jednym z najbardziej transformujących zjawisk cywilizacyjnych XXI wieku, głęboko redefiniując niemal każdy aspekt funkcjonowania społeczeństw – od medycyny i gospodarki po sam proces nauczania. W kontekście edukacji, narzędzia generatywne, takie jak ChatGPT czy systemy do automatycznego tworzenia prezentacji, przekroczyły próg klasy, zmieniając zarówno metody zdobywania wiedzy przez uczniów, jak i wymuszając refleksję nad tradycyjnymi modelami weryfikacji umiejętności. Uczniowie szkół ponadgimnazjalnych nie są już jedynie biernymi odbiorcami technologii; stają się jej aktywnymi użytkownikami, a często i współtwórcami. Wraz z tym postępem technologicznym, pojawia się nieuniknione napięcie między bezzałogową autonomią maszyn a ludzkimi ramami prawnymi, które z natury rzeczy są powolne i oparte na koncepcjach odpowiedzialności i podmiotowości wypracowanych na przestrzeni wieków.

Dynamiczny rozwój AI, zwłaszcza w zakresie uczenia maszynowego i głębokiego, rodzi pilne i złożone wyzwania prawne. Nie chodzi już tylko o ochronę danych osobowych, lecz o fundamentalne kwestie, które testują dotychczasowe paradygmaty prawa karnego, cywilnego, autorskiego i administracyjnego. Kto ponosi odpowiedzialność, gdy autonomiczny pojazd spowoduje wypadek? Jak rozstrzygać spory dotyczące praw autorskich do treści wygenerowanych przez algorytmy, które nie mają osobowości prawnej? Czy algorytmiczne dyskryminowanie w procesach rekrutacyjnych lub kredytowych jest zgodne z konstytucyjną zasadą równości? Złożoność tych dylematów sprawia, że temat „Sztuczna inteligencja a prawo” staje się krytycznie ważnym elementem edukacji dla uczniów szkół ponadgimnazjalnych, stanowiących przyszłą kadrę menedżerską, prawniczą, techniczną i artystyczną.

Wprowadzenie tych zagadnień do materiału dydaktycznego ma na celu ukształtowanie świadomego obywatela cyfrowego. Lekcja nie ogranicza się do technicznej definicji AI czy przedstawienia gotowych regulacji (takich jak unijny AI Act), ale angażuje uczniów w analizę przypadków (case studies), zmuszając ich do krytycznego myślenia i formułowania własnych, prawno-etycznych argumentów. Jest to niezbędne dla rozwijania umiejętności argumentacji oraz zrozumienia interdyscyplinarnego charakteru współczesnych problemów, gdzie technologia przenika sferę etyki, prawa i społeczeństwa. Uczniowie muszą wiedzieć, że innowacja niesie za sobą nie tylko korzyści, ale i konieczność ustanowienia nowych reguł społecznej gry.

Dla nauczycieli i twórców materiałów dydaktycznych, tego typu scenariusz lekcji ma kapitalne znaczenie w kontekście realizacji podstawy programowej w zaktualizowanym i angażującym kontekście. Umożliwia on odejście od encyklopedyzmu na rzecz metod aktywizujących (dyskusja moderowana, burza mózgów, praca grupowa), które są najbardziej efektywne w pracy z młodzieżą. Taki konspekt nie tylko dostarcza treści merytorycznych, ale służy jako wzorzec metodyczny do prowadzenia trudnych, dynamicznych debat. Podkreśla on rolę nauczyciela jako moderatora i przewodnika w labiryncie cyfrowej transformacji, a nie tylko jako źródła informacji. W dobie szybkiej dezinformacji i powszechnego dostępu do generowanych treści, edukacja prawno-społeczna związana z AI stanowi jeden z najważniejszych filarów przygotowania młodzieży do dojrzałego i odpowiedzialnego życia w świecie, w którym maszyny uczą się, a prawo dopiero próbuje nadążyć za tempem ich autonomii.

Grupa docelowa: uczniowie szkół ponadgimnazjalnych (klasa 2–3) 

Celem lekcji jest, aby uczeń: 

  • rozumiał, czym jest sztuczna inteligencja (AI), 
  • potrafi wskazać wyzwania prawne związane z rozwojem AI; 
  • analizował rzeczywiste przypadki zastosowania AI w kontekście prawnym; 
  • rozwijał umiejętność argumentacji i krytycznego myślenia. 

Metody i formy pracy: 

  • mini-wykład, 
  • praca w grupach, 
  • burza mózgów, 
  • dyskusja moderowana, 
  • analiza przypadków (case study). 

Materiały dydaktyczne: 

  • prezentacja multimedialna, 
  • karty z przypadkami (case studies), 
  • telefon/laptop (jeśli dostępne). 

 

Przebieg lekcji :

Wprowadzenie 

Celem zaciekawienia i aktywizacji uczniów nauczyciel pyta się :

  • Czym jest sztuczna inteligencja? 
  • Czy sztuczna inteligencja może popełnić przestępstwo? 
  • Kto ponosi odpowiedzialność za błędy spowodowane przez sztuczną inteligencie? 

 

Część teoretyczna (wykład – max 15 min) 

Podczas wykładu omówione mogą zostać następujące tematy: 

Czym jest AI? (definicja i przykłady) 

Definicja: 

  • wg. ChatGPT: „SI to technologia, która potrafi podejmować decyzje lub rozwiązywać problemy w sposób przypominający ludzki”; 
  • AI ACT: system sztucznej inteligencji (system AI)” oznacza system oparty na maszynach, który został zaprojektowany do działania z różnymi poziomami autonomii i który może wykazywać zdolność adaptacji po uruchomieniu, i który, dla wyraźnych lub domniemanych celów, wnioskuje na podstawie danych wejściowych, które otrzymuje, w jaki sposób wygenerować dane wyjściowe takie jak prognozy, treści, rekomendacje lub decyzje, które mogą wpływać na środowiska fizyczne lub wirtualne”. 

Przykłady:

  • narzędzia generatywne: 
    – Beautiful.ai to aplikacja internetowa umożliwiająca szybki i efektywne tworzenie wysokiej jakości prezentacji;
    – chatGPT to narzędzie umożliwiające zdobywanie informacji w trakcie interaktywnych rozmów użytkownika ze sztuczną inteligencją;
    – Copy.ai to zaawansowana platforma do generowania unikatowych wysokiej jakości tekstów; 
  • autopiloty (np. Tesla); 
  • narzędzia rekrutacyjne (HR): 
    – Attract to platforma oparta na sztucznej inteligencji, która zarządza pozyskiwaniem i zaangażowaniem talentów;
    – Effy to oprogramowanie do zarządzania wydajnością, które ułatwia przeglądanie i przesyłanie opinii dzięki technologii AI; 
  • rozpoznawanie twarzy;  
  • asystenci głosowi (np. SIRI/ALEXA); 
  • algorytmy w serwisach streamingowych sugerujące, co obejrzeć. 

Główne wyzwania prawne: 

  • brak osobowości prawnej sztucznej inteligencji; 
  • odpowiedzialność za decyzje podejmowane przez algorytmy; 
  • prywatność i przetwarzanie danych; 
  • deepfake i dezinformacja; 
  • prawa autorskie (twórczość generowana przez AI). 

 

Część praktyczna:

Uczniowie dzielą się na 4–5 osobowych grupy. Każda grupa dostaje jedno z poniższych zadań do analizy:

  1. Autonomiczny samochód potrąca pieszego – kto odpowiada? Programista, producent, właściciel auta, a może kierowca?  
  2. AI napisała piosenkę – kto ma do niej prawa autorskie? 
  3. Algorytm bankowy odrzuca wnioski kredytowe częściej kobietom – czy to dyskryminacja? 
  4. Rozpoznawanie twarzy przez policję – naruszenie prywatności czy skuteczna metoda walki z przestępczością? 
  5. Uczeń korzysta z AI do napisania wypracowania – czy to oszustwo, czy nowoczesne narzędzie? 
  6. Czy mogę stworzyć deepfake z wizerunkiem znanej piosenkarki? 

Grupa omawia przypadek i przygotowuje krótką odpowiedź na 2 pytania: 

  • Jakie problemy prawne się tu pojawiają? 
  • Jak według was powinno wyglądać prawo, które to reguluje? 

Następnie każda z grup przedstawia swoje rozwiązanie i stanowisko, a nauczyciel moderuje dyskusje. 

 

Podsumowanie:

  • Pozostawianie uczniów z pytaniem, czy prawo powinno ograniczać sztuczną inteligencję? 
  • Czy powinniśmy przyznać sztucznej inteligencji osobowość prawną? 
  • Czy sztuczna inteligencja jest nam w ogóle potrzebna? 

 Autor: mgr Paweł Michalik

 

Materiały dodatkowe:

  1. AI Act – Rozporządzenie Parlamentu Europejskiego i Rady (UE) w sprawie sztucznej inteligencji (podstawowy akt prawa unijnego regulujący ramy prawne stosowania sztucznej inteligencji w Unii Europejskiej) : https://eur-lex.europa.eu/legal-content/PL/TXT/PDF/?uri=OJ:L_202401689 
  2. Akt o usługach cyfrowych: Rozporządzenie Parlamentu Europejskiego i Rady (UE) w sprawie jednolitego rynku usług cyfrowych (ma na celu stworzenie bezpieczniejszego środowiska internetowego dla konsumentów i  przedsiębiorstw w Unii Europejskiej) – https://eur-lex.europa.eu/legal-content/PL/TXT/PDF/?uri=CELEX:32022R2065 
  3. Biała Księga w sprawie sztucznej inteligencji – https://eur-lex.europa.eu/legal-content/PL/TXT/PDF/?uri=CELEX:52020DC0065 
  4. Polityka rozwoju sztucznej inteligencji w Polsce do 2030 roku – https://www.gov.pl/web/cyfryzacja/nowa-polityka-ai—dolacz-do-konsultacji-i-pomoz-wspoltworzyc-przyszlosc-cyfrowej-Polski 
  5. Tak AI tworzy podziały na świecie (film popularnonaukowy) – https://www.youtube.com/watch?v=mTFzUEUP5NI 
  6. Platforma Uniwersytetu Szczecińskiego dot. sztucznej inteligencji – https://ai.usz.edu.pl