Podsumowanie kluczowych faktów:
- Wzrost liczby kierunków i kursów związanych ze sztuczną inteligencją: Uczelnie na całym świecie – od dużych uniwersytetów badawczych po małe szkoły o profilu humanistycznym – uruchamiają nowe programy studiów, specjalizacje i kursy związane ze sztuczną inteligencją. Uniwersytet Carnegie Mellon jako pierwszy wprowadził studia licencjackie z AI w 2018 roku, a obecnie nawet takie instytucje jak Lake Forest College (Illinois) oferują unikalne interdyscyplinarne specjalizacje z AI łączące technologię i nauki humanistyczne [1] [2]. Miami Dade College wprowadza obowiązkowe zajęcia z AI dla każdego studenta we wszystkich kierunkach – od pielęgniarstwa po biznes – wspierane przez inicjatywę o wartości 15 milionów dolarów [3].
- Partnerstwa z gigantami technologicznymi i finansowanie: Technologiczni giganci i rządy inwestują ogromne środki w edukację AI. W Kalifornii Google, Microsoft, Adobe i IBM nawiązały współpracę z uczelniami publicznymi, aby zapewnić bezpłatne narzędzia i szkolenia z AI w całym stanie [4]. Uniwersytety współpracują także z firmami takimi jak OpenAI – na przykład pilotażowy program Duke University zapewnił wszystkim studentom bezpłatny dostęp do ChatGPT-4 i stworzył nawet prywatne narzędzie „DukeGPT” do użytku na kampusie [5]. Fundacje filantropijne i samorządy lokalne również inwestują (np. grant Knight Foundation w wysokości 7 mln dolarów na działania AI w Miami Dade College) [6].
- Odnowiony program nauczania (Etyka i nie tylko): Szkoły nie uczą już tylko kodowania – etyka, zarządzanie i nauka interdyscyplinarna są kluczowe. Uczelnie humanistyczne integrują AI z badaniami humanistycznymi; „żadna inna mała uczelnia humanistyczna nie oferuje takiego programu,” powiedział jeden z profesorów o kierunku AI na Lake Forest, łączącym filozofię i informatykę [7]. Kursy z etyki AI i jej wpływu na społeczeństwo pojawiają się obok szkoleń technicznych [8]. Uniwersytet Florydy, dążąc do miana pierwszego „Uniwersytetu AI”, zatrudnił 100 wykładowców skoncentrowanych na AI i wprowadził AI do wszystkich 16 wydziałów, oferując wstępne kursy AI bez wymagań wstępnych [9].
- Zmiana kultury na kampusie: Studenci i wykładowcy dostosowują się do AI na zajęciach. Niektórzy profesorowie zachęcają do korzystania z narzędzi AI jako pomocy naukowych – „Bierzesz odpowiedzialność za wszystkie błędy [ChatGPT], a możesz go używać, by wspierać cokolwiek robisz,” mówi jeden z profesorów inżynierii, który pozwala na wsparcie AI [10]. Inni całkowicie zakazują AI, obawiając się, że podważa ono myślenie krytyczne; profesor anglistyki z Duke ostrzegał, że zlecanie pracy AI to jak „próba zlecenia komuś innemu wykonania ćwiczeń za ciebie” – to nie sprawi, że będziesz silniejszy [11]. Studenci opisują ChatGPT jako pomocnego „korepetytora 24/7”, ale przyznają, że nadmierne poleganie na nim może stać się podporą, która skraca prawdziwy proces uczenia się [12] [13].
- Globalny impet i wpływ na rynek pracy: Boom na sztuczną inteligencję w edukacji ma zasięg ogólnoświatowy. Najlepsze chińskie uniwersytety zwiększają nabór na kierunki związane ze sztuczną inteligencją, a nawet wprowadzają edukację AI w szkołach podstawowych i średnich, aby zbudować krajowy zasób talentów [14] [15]. UNESCO i międzynarodowe konsorcja zwołują decydentów, by budować „ekosystemy szkolnictwa wyższego wspierane przez AI” w różnych regionach [16] [17]. Wszystko to jest odpowiedzią na rosnące zapotrzebowanie branży na umiejętności związane ze sztuczną inteligencją – jedna z prognoz przewiduje 50% lukę w potrzebnych talentach AI, nawet gdy stanowiska dla początkujących ewoluują lub znikają [18]. Uniwersytety mają nadzieję, że ich inicjatywy związane z AI pozwolą absolwentom zachować zatrudnialność w gospodarce przekształconej przez sztuczną inteligencję, jednocześnie podkreślając, że wyjątkowo ludzkie umiejętności – krytyczne myślenie, kreatywność, etyka – są ważniejsze niż kiedykolwiek w erze inteligentnych maszyn [19].
Wzrost liczby kierunków AI – od centrów technologicznych po uczelnie humanistyczne
Niedawno „sztuczna inteligencja” na studiach była ograniczona do niszowych fakultetów informatycznych lub laboratoriów badawczych. Dziś staje się nurtem głównym w szkolnictwie wyższym. Uniwersytety szybko wprowadzają kierunki, specjalizacje i certyfikaty z zakresu SI, aby sprostać zapotrzebowaniu studentów i potrzebom rynku pracy. Uniwersytet Carnegie Mellon trafił na pierwsze strony gazet w 2018 roku jako pierwszy, który zaoferował licencjat z zakresu sztucznej inteligencji [20]. Od tego czasu dziesiątki uczelni poszły w ich ślady, tworząc nowe programy łączące informatykę, naukę o danych i uczenie maszynowe. MIT uruchomił interdyscyplinarny kierunek „SI i podejmowanie decyzji”, a inicjatywa Human-Centered AI na Stanfordzie obejmuje siedem wydziałów, aby zapewnić studentom naukę projektowania SI, która wspiera, a nie zastępuje ludzkie możliwości [21]. Nawet publiczne systemy uniwersyteckie rozwijają edukację z zakresu SI: Uniwersytet Florydy, na przykład, zatrudnił ponad 100 wykładowców i stworzył ponad 200 kursów z elementami SI we wszystkich wydziałach w ramach inicjatywy „SI w całym programie nauczania” [22].Fala edukacji w zakresie AI nie ogranicza się do technologicznych potęg. W rzeczywistości wiele uczelni humanistycznych – tradycyjnie skupionych na szerokim, humanistycznym kształceniu – również dołącza do tego trendu. Te mniejsze instytucje wypracowują sobie unikalną niszę, integrując AI z etosem nauk humanistycznych. „Lake Forest College jest wyjątkowo przygotowany, by przewodzić w tej dziedzinie: żadna inna mała uczelnia humanistyczna nie oferuje takiego programu”, powiedział profesor Davis Schneiderman, współprzewodniczący nowego kierunku z zakresu AI na tej uczelni w Illinois [23]. Począwszy od jesieni 2025 roku, studenci Lake Forest będą mogli realizować interdyscyplinarny kierunek z zakresu AI z dwoma ścieżkami: AI Studies (analizując wpływ AI na społeczeństwo przez pryzmat nauk humanistycznych) oraz AI Governance (skupiając się na etyce, polityce i nadzorze nad AI) [24] [25]. Celem jest kształcenie absolwentów biegle poruszających się zarówno w kodowaniu, jak i filozoficznych pytaniach o „to, co znaczy być człowiekiem w erze AI” [26] [27]. Inne uczelnie humanistyczne robią to samo: Swarthmore College prowadzi wspólnie kurs „Ethics & Technology” z wykładowcami filozofii i informatyki, zapewniając studentom zmaganie się z dylematami etycznymi równolegle z problemami technicznymi [28]. Harvey Mudd College, uczelnia humanistyczna z naciskiem na STEM, od dawna włącza AI do wymagającego programu nauczania, który stawia fundamentalne pytania, takie jak „Co będzie potrzebne, by komputery wykonywały ludzkie zadania?” [29].
Tymczasem, college społecznościowe i nieelitarne instytucje również rozszerzają ofertę AI, aby demokratyzować dostęp. Miami Dade College – jeden z największych dwuletnich college’ów w USA – niedawno ogłosił przełomowy plan wprowadzenia obowiązkowego kursu AI dla każdego studenta na każdym kierunku studiów [30]. „To będzie pierwszy raz, gdy college wdroży AI we wszystkich kierunkach, w tym pielęgniarstwie, biznesie i naukach humanistycznych,” powiedziała prezes Miami Dade, Madeline Pumariega [31]. Ten ambitny plan, wspierany przez 15 milionów dolarów ze źródeł publicznych i organizacji non-profit, obejmuje zatrudnienie nowej kadry i budowę centrów AI na kampusie [32]. Logika jest jasna: „Widzisz, jak firmy wchodzą… jedyną rzeczą, która może spowolnić ten impet, jest brak talentów i siły roboczej,” zauważyła Pumariega, podkreślając potrzebę regionu na wykwalifikowaną w AI siłę roboczą wraz ze wzrostem inwestycji technologicznych [33]. Po drugiej stronie Atlantyku (i Pacyfiku) podejmowane są podobne działania. Najlepsze chińskie uniwersytety zwiększają nabór na AI o setki miejsc, aby sprostać „narodowym strategicznym potrzebom” w technologii [34] [35], a chiński rząd wprowadził program nauczania AI nawet w szkołach podstawowych i średnich, aby kształcić przyszłe talenty AI [36]. Krótko mówiąc, od czołowych uniwersytetów badawczych po małe college’e i college’e społecznościowe, edukacja AI stała się koniecznością w 2025 roku.
Big Tech na kampusie: partnerstwa, finansowanie i laboratoria AI
Szybka integracja AI w programach nauczania nie nastąpiła w izolacji – jest napędzana przez lawinę partnerstw z firmami technologicznymi oraz wsparcie rządu. Uznając potrzebę kształcenia absolwentów znających się na AI (a być może także z własnym interesem w wykwalifikowanych użytkownikach), największe firmy technologiczne dostarczają narzędzia, szkolenia i finansowanie uczelniom. Niedawna inicjatywa w Kalifornii, wspierana przez gubernatora Gavina Newsoma, sprawiła, że Google, Microsoft, Adobe i IBM zgodziły się udostępnić zasoby AI za darmo uczelniom i uniwersytetom w tym stanie [37] [38]. Ogłaszając porozumienie, Newsom wskazał na zwolnienia w branży programistycznej i powiedział, że studenci potrzebują nowych umiejętności na zmieniającym się rynku pracy – „W niektórych obszarach programowania obserwujemy znaczny spadek zatrudnienia… z oczywistych powodów,” powiedział, odnosząc się do automatyzacji niektórych zadań programistycznych na poziomie podstawowym przez AI [39]. Teraz 116 kalifornijskich college’ów społecznych i 23 uniwersytety Cal State zyskają dostęp do narzędzi AI klasy przemysłowej (takich jak nadchodząca „Gemini” AI od Google i NotebookLM) do wykorzystania na zajęciach [40] [41]. Stan w istocie wykorzystuje partnerstwa technologiczne, by przekształcić swój publiczny system edukacji w kuźnię talentów AI.
Same uniwersytety również zawierają umowy. W Karolinie Północnej Duke University nawiązał współpracę z OpenAI w celu uruchomienia programu pilotażowego, który zapewnia każdemu studentowi studiów licencjackich i pracownikowi naukowemu bezpłatny, nielimitowany dostęp do ChatGPT-4 [42]. Duke stworzył nawet własny interfejs o nazwie „DukeGPT”, aby zintegrować AI z systemami uczelni, zapewniając „maksymalną prywatność i solidną ochronę danych” – co jest odpowiedzią na obawy dotyczące danych studentów i poufności podczas korzystania z narzędzi AI firm trzecich [43]. Na poziomie systemowym największa w kraju sieć czteroletnich publicznych uniwersytetów – system California State University (CSU) – pracuje nad programami nauczania i szkoleniami z zakresu AI we współpracy nie tylko z Google i Microsoftem, ale także Amazonem, Intelem, LinkedInem, a nawet samym OpenAI [44]. Celem CSU jest wplecenie AI we wszystkie programy dla ponad 460 000 studentów, z naciskiem na praktyczne umiejętności zawodowe. Administratorzy uniwersytetów przyznają, że takie działania mogą wysyłać „sprzeczne sygnały” – jak zażartował jeden z liderów stowarzyszenia wykładowców, uczelnie wydawały pieniądze na wykrywacze plagiatów AI w zeszłym roku, a teraz narzędzia AI są wbudowywane w platformy edukacyjne [45] – ale twierdzą, że dostosowanie się do gwałtownego rozwoju AI jest koniecznością [46].
Finansowanie akademickich inicjatyw związanych ze sztuczną inteligencją pochodzi również od organizacji filantropijnych i rządu. Knight Foundation oraz lokalne władze (miasto i hrabstwo) wspólnie przeznaczyły 15 milionów dolarów na kompleksowy program AI w Miami Dade [47]. Rządy stanowe, takie jak Floryda, przeznaczyły środki na zatrudnienie kadry naukowej zajmującej się AI oraz budowę infrastruktury obliczeniowej wysokiej wydajności do badań nad AI [48]. Na polu badań pojawiają się także międzynarodowe współprace: program WISE Fundacji Kataru zainicjował globalne konsorcjum z uniwersytetami w USA, Europie, Azji, Afryce i Ameryce Łacińskiej, aby badać AI w szkolnictwie wyższym oraz sposoby najlepszego przygotowania przyszłej siły roboczej [49] [50]. Nawet UNESCO zorganizowało dialogi na wysokim szczeblu we wschodniej Azji na temat tworzenia „ekosystemów szkolnictwa wyższego wspieranych przez AI”, podkreślając regionalną współpracę w celu dostosowania uniwersytetów do ery cyfrowej [51] [52]. Innymi słowy, AI w środowisku akademickim to wysiłek zespołowy – uniwersytety chętnie korzystają z wiedzy i zasobów przemysłu, a z kolei firmy technologiczne i rządy postrzegają uczelnie jako kluczowych partnerów w kształceniu kolejnego pokolenia obywateli obeznanych z AI.
Nowe spojrzenie na program studiów: kodowanie, kreatywność i sumienie
Włączenie AI do szkolnictwa wyższego to nie tylko dodanie kilku zajęć z programowania. To skłania do szerszego przemyślenia, czego studenci powinni się uczyć. Wyraźnym trendem w nowych programach AI jest nacisk na uczenie interdyscyplinarne i etykęobok umiejętności technicznych. Edukatorzy twierdzą, że aby odnieść sukces w świecie napędzanym przez AI, studenci potrzebują czegoś więcej niż tylko biegłości w programowaniu; muszą umieć kwestionować algorytmy, rozważać wpływ na społeczeństwo i podejmować etyczne decyzje dotyczące technologii. „Studenci dzisiaj potrzebują czegoś więcej niż tylko biegłości technicznej – potrzebują narzędzi krytycznych, etycznych i interdyscyplinarnych, aby poruszać się w świecie coraz bardziej kształtowanym przez AI,” wyjaśnił prof. Schneiderman z Lake Forest College [53]. Ta filozofia jest wpisana w program nauczania Lake Forest (który łączy literaturę i historię AI z praktycznymi projektami i dyskusjami o uprzedzeniach i zarządzaniu) [54] [55]. Podobnie na University of Richmond powstaje Centrum Sztuk Wyzwolonych i AI aby „skupić się na humanistycznym podejściu” w badaniach nad AI – zapewniając, że pytania o sens, interpretację i etykę pozostaną w centrum innowacji AI [56]. Podobnie grant wydziałowy Swarthmore na „Odpowiedzialne projektowanie programu nauczania AI” zaowocował kursami prowadzonymi zespołowo, gdzie studenci mierzą się z pytaniami etycznymi równolegle z wyzwaniami programistycznymi [57].Duże uniwersytety również wprowadzają etykę i perspektywy społeczne do programu nauczania AI. Pionierski kierunek AI na Carnegie Mellon wymaga zajęć z zakresu AI i społeczeństwo, a Instytut AI Skoncentrowanej na Człowieku na Stanfordzie oferuje zajęcia takie jak „Etyka AI” oraz „AI i polityka publiczna”. W rzeczywistości podejście Stanfordu wyraźnie integruje wnioski z filozofii i psychologii, mając na celu „kierowanie AI przez wpływ na człowieka i projektowanie jej tak, by wspierała, a nie zastępowała, ludzkie możliwości.” [58]. Wiele programów podkreśla także „AI dla dobra” lub projekty o wpływie społecznym. Wniosek: edukacja AI nie jest już tylko dla studentów informatyki. Na Uniwersytecie Florydy student może studiować dziennikarstwo lub biologię i nadal uzyskać certyfikat AI poprzez ukończenie kursu „Podstawy AI” oraz zajęć aplikacyjnych, takich jak „AI w opiece zdrowotnej” lub „AI w rolnictwie” [59]. Każdy wydział UF oferuje obecnie jakieś zajęcia związane z AI, co odzwierciedla pogląd, że AI dotknie wszystkich dziedzin – od sztuki po zoologię – i wszyscy studenci powinni przynajmniej poznać podstawy.Kwestie etyczne znajdują się w centrum tych zmian programowych, napędzane zarówno idealizmem, jak i niedawnymi sygnałami ostrzegawczymi. Nagła popularność narzędzi generatywnej AI, takich jak ChatGPT pod koniec 2022 roku, wprawiła środowisko akademickie w popłoch – „Debiut ChatGPT firmy OpenAI w 2022 roku wywołał niepewność w całym szkolnictwie wyższym. Wielu wykładowców w pośpiechu opracowywało nowe wytyczne, by zapobiec nieuczciwości akademickiej,” zauważono w jednym z artykułów [60]. Oszustwa i plagiaty z użyciem AI stały się natychmiastowym problemem. W odpowiedzi wiele uczelni początkowo polegało na oprogramowaniu wykrywającym (takim jak detektor AI-writing firmy Turnitin), by wyłapywać prace wygenerowane przez AI. Jednak okazało się to niedoskonałe – w Kalifornii niektóre szkoły odkryły, że detektor oznaczał studentów, którzy w ogóle nie korzystali z AI [61], co rodziło problemy z uczciwością. Teraz, gdy korzystanie z AI staje się coraz bardziej akceptowane, zmienia się podejście: zamiast zabawy w kotka i myszkę, wykładowcy przeprojektowują oceny i zasady, by odpowiednio zintegrować AI. Niektórzy profesorowie zaczęli zadawać więcej prezentacji ustnych lub pisania na zajęciach, co „bardzo trudno podrobić” za pomocą AI [62]. Inni wyraźnie pozwalają na użycie AI przy zadaniach, ale wymagają od studentów ujawnienia, jak z niego korzystali, skutecznie ucząc właściwego użycia narzędzia [63]. Ogólnym celem jest zachowanie uczciwości akademickiej i efektów kształcenia, przy jednoczesnym uznaniu, że AI zostanie z nami na stałe. Jak ujął to prezydent Mary Baldwin University, Jeff Stein (sygnatariusz zobowiązania ONZ dotyczącego AI w edukacji), uczelnie muszą zadbać, by studenci stali się „myślącymi, etycznymi użytkownikami” nowych narzędzi AI [64] – nie tylko sprawnymi operatorami, ale odpowiedzialnymi obywatelami cyfrowymi.
Na zajęciach: wykładowcy przyjmują (i opierają się) AI, studenci rozważają plusy i minusy
Wejdź do sali wykładowej na uczelni w 2025 roku, a możesz zobaczyć nietypową scenę: studenci otwarcie korzystający z ChatGPT lub podobnej AI na swoich laptopach za zgodą profesora. Kultura wokół AI na zajęciach ewoluuje, a podejścia różnią się znacznie w zależności od wykładowcy i dyscypliny. Z jednej strony są profesorowie tacy jak David Carlson, który prowadzi zajęcia z uczenia maszynowego na Duke i stosuje pobłażliwe, eksperymentalne podejście. Carlson pozwala studentom korzystać z generatywnej AI przy zadaniach, o ile są wobec tego transparentni. „Bierzesz odpowiedzialność za wszystkie błędy [ChatGPT], i możesz używać go do wspierania swojej pracy,” mówi do swojej klasy – to znaczy, że studenci muszą brać odpowiedzialność za wyniki i je weryfikować [65]. Jego uzasadnienie: na kursie data science korzystanie z narzędzi AI do analizy danych jest częścią nauki, a narzędzia takie jak ChatGPT (choć „nie są bezbłędne”) mogą dostarczać „przydatnych dodatkowych wyjaśnień” złożonych pojęć [66]. Podobnie inny profesor z Duke, Matthew Engelhard, zachęca do korzystania z AI jako interaktywnej pomocy naukowej. „Moje podejście nie polega na tym, by zabraniać korzystania z tych narzędzi,” wyjaśnia Engelhard, „Chodzi o to, by do tego zachęcać, ale upewnić się, że pracujecie z tymi narzędziami interaktywnie, tak by rozumieć treść.” [67]. Innymi słowy, traktuje ChatGPT jak kalkulator – pomocny przy rozwiązywaniu problemów, o ile studenci nie pomijają nauki „dzielenia pisemnego” leżącego u podstaw.
Na drugim końcu spektrum, niektórzy wykładowcy pozostają głęboko nieufni wobec wpływu AI na naukę. Ten podział często przebiega wzdłuż linii dyscyplinarnych. Wykładowcy STEM, zajmujący się kodowaniem lub danymi, łatwiej postrzegają AI jako narzędzie zwiększające produktywność. Jednak wielu wykładowców humanistycznych i pisarskich obawia się, że jeśli studenci będą zlecać myślenie AI, nigdy nie rozwiną własnego głosu ani umiejętności krytycznego myślenia. Thomas Pfau, wybitny profesor anglistyki na Duke, twierdzi, że generatywna AI „nie ma miejsca w naukach humanistycznych”, gdzie celem jest interpretacja i osobista ekspresja [68]. „Jeśli chcesz być dobrym sportowcem, z pewnością nie próbowałbyś, żeby ktoś inny ćwiczył za ciebie”, żartuje Pfau, ostrzegając, że studenci, którzy pozwalają AI pisać za siebie eseje, stracą umiejętności, które kształtuje wykształcenie ogólne [69]. On i inni obawiają się, że nadmierne poleganie na AI może osłabić zdolność studentów do budowania argumentów i oceny informacji – czyli uczenia się, jak się uczyć. W rzeczywistości niektórzy profesorowie zaostrzyli zasady: profesor filozofii z Duke, Henry Pickford, zauważył, że ChatGPT zwiększył pokusę plagiatu, więc teraz częściej przeprowadza egzaminy ustne i pisanie na zajęciach, by zachować uczciwość studentów [70]. „Nie chcę spędzać czasu na pilnowaniu”, powiedział Pickford, wyjaśniając, dlaczego zmienił zadania [71]. To napięcie – zakazać czy zaakceptować AI – rozgrywa się na wszystkich kampusach, często metodą prób i błędów, gdy wykładowcy szukają właściwej równowagi.Co myślą studenci? Nic dziwnego, że oni również mają mieszane uczucia. Wielu studentów chętnie przyjęło chatboty AI jako pomoc naukową lub partnerów do kodowania. „ChatGPT jest jak korepetytor, który jest obok ciebie w każdej sekundzie”, mówi Conrad Qu, student trzeciego roku, który korzysta ze sztucznej inteligencji, aby lepiej zrozumieć materiały z zajęć i zwiększyć produktywność [72]. Kolega z uczelni, Keshav Varadarajan, używa jej do generowania konspektów esejów lub pisania fragmentów kodu i docenia, że „potrafi wyjaśnić pojęcia pełne żargonu w sposób zrozumiały” [73]. W okresie wzmożonej nauki narzędzia AI są popularnym skrótem – gdy utkniesz nad zadaniem o 2 w nocy, czemu nie poprosić chatbota o podpowiedź? Jednak studenci są również świadomi wad. „Po prostu przechodzisz od razu od problemu do odpowiedzi”, jeśli nie jesteś ostrożny, przyznaje Varadarajan, zauważając, że trudniej przyswoić pojęcia, jeśli AI zbyt łatwo podaje odpowiedzi [74]. Qu się zgadza, mówiąc, że unika pomocy AI w tematach, które go pasjonują, bo jeśli „to coś, na czym mi zależy, wrócę do tego i naprawdę spróbuję wszystko zrozumieć i nauczyć się samodzielnie.” [75] Obaj studenci podkreślają osobistą odpowiedzialność – AI może zaoszczędzić czas przy rutynowych zadaniach, ale nauka ostatecznie zależy od uczącego się, by upewnić się, że rozumie materiał. To odzwierciedla opinie wielu profesorów: używana mądrze, AI jest świetnym korepetytorem lub „asystentem”, ale jeśli stanie się podporą, to „możesz sam sobie skrócić proces uczenia się”, jak ujął to profesor Engelhard [76].
Jednym z głównych zmartwień, które dzielą studenci i wykładowcy, jest sprawiedliwość i „cyfrowy podział”. Jeśli jedna grupa studentów korzysta ze sztucznej inteligencji, aby przyspieszyć swoją pracę, czy stawia to innych w niekorzystnej sytuacji? Niektórzy profesorowie obawiają się wyścigu zbrojeń, w którym studenci czują presję, by używać AI tylko po to, by nadążyć. „Wielu studentów znajduje się w ‘niekorzystnej sytuacji konkurencyjnej’, gdy większość ich rówieśników korzysta z takich narzędzi,” zauważył profesor Pfau [77]. To rodzi pytania dotyczące polityki: czy uniwersytety powinny zapewnić równy dostęp do narzędzi AI (tak jak zrobił to Duke, dając wszystkim konta ChatGPT) i jak zagwarantować, że każdy student otrzyma wskazówki dotyczące efektywnego korzystania z nich? Te rozmowy wciąż trwają, ale podkreślają, że AI w edukacji to nie tylko kwestia akademicka, ale także społeczna – dotykająca równości, etyki i podstawowego celu edukacji.
Nowe pokolenie absolwentów: wpływ na rynek pracy i perspektywy na przyszłość
Dlaczego uczelnie tak mocno inwestują w edukację AI? Głównym powodem jest rynek pracy jutra. Praktycznie każda branża jest przekształcana przez sztuczną inteligencję, co tworzy ogromne zapotrzebowanie na specjalistów AI – a także zmienia umiejętności wymagane w zawodach niezwiązanych bezpośrednio z AI. Uniwersytety są pod presją, by utrzymać aktualność programów nauczania, aby absolwenci nie zostali w tyle przez automatyzację. Jak zauważa jedna z analiz, istnieje znacząca „luka kompetencyjna w zakresie AI”: pracodawcy potrzebują znacznie więcej pracowników biegłych w technologiach AI, niż jest obecnie dostępnych [78]. W 2024 roku firmy na całym świecie miały wydać ponad 550 miliardów dolarów na rozwiązania AI , ale połowa stanowisk związanych z AI mogłaby pozostać nieobsadzona z powodu niedoboru talentów [79]. Właśnie tę lukę mają wypełnić nowe programy akademickie. Obserwujemy boom na specjalistyczne certyfikaty AI, programy magisterskie i bootcampy – często prowadzone wspólnie przez uczelnie i firmy technologiczne – aby podnosić kwalifikacje pracowników w branżach od finansów po opiekę zdrowotną w zakresie korzystania z narzędzi AI.
Paradoksalnie, nawet gdy AI automatyzuje niektóre zadania, zwiększa wartość wyraźnie ludzkich umiejętności. Eksperci przewidują odrodzenie znaczenia wszechstronnego, humanistycznego wykształcenia w erze AI [80]. Powód: podczas gdy AI potrafi analizować dane lub generować tekst, umiejętności takie jak krytyczne myślenie, kreatywność, osąd etyczny i współpraca są trudniejsze do zautomatyzowania, a więc bardziej kluczowe dla ludzi. „W erze potężnej AI umiejętności takie jak krytyczne myślenie, kreatywność, komunikacja i rozumowanie etyczne stają się bardziej wartościowe, a nie mniej” – argumentuje jeden z raportów o programach nauczania AI [81]. To podejście wyjaśnia, dlaczego wiele programów AI kładzie nacisk na etykę i kontekst społeczny – pracodawcy nie chcą tylko programistów, którzy potrafią budować AI, ale pracowników, którzy potrafią odpowiedzialnie wdrażać AI i przewidywać jej skutki. Badanie dużych firm, w tym Apple i Microsoft, wykazało, że poszukują one kandydatów z silnymi „umiejętnościami miękkimi” obok wiedzy technicznej [82]. Idealny absolwent uniwersytetu w erze AI mógłby mieć podwójny kierunek: informatyka i filozofia lub biznes i analiza danych – ktoś, kto głęboko rozumie technologię i potrafi szeroko myśleć o strategii, społeczeństwie i moralności.
Z globalnej perspektywy, kraje postrzegają edukację AI jako priorytet strategiczny. Rządy wprost łączą rozwój uczelni z celami innowacyjnymi. Na przykład chińskie Ministerstwo Edukacji wezwało elitarne uniwersytety do przyspieszenia kształcenia w zakresie AI i półprzewodników jako część planu uczynienia kraju „potęgą edukacyjną” i technologiczną supermocarstwem [83] [84]. W Europie UE finansuje sieci uniwersytetów opracowujących wytyczne etyczne dotyczące AI i wspólne kursy, dążąc do standaryzacji wysokiej jakości nauczania AI w krajach członkowskich [85] [86]. Skupia się także na zapewnieniu różnorodności i włączenia w dziedzinach AI, aby kolejna fala twórców AI nie była jednorodna. Doprowadziło to do programów promocyjnych i stypendiów mających przyciągnąć więcej kobiet i niedostatecznie reprezentowanych mniejszości do studiów nad AI, nawiązując do wcześniejszych działań w informatyce.
Na wrzesień 2025 roku integracja AI w szkolnictwie wyższym wciąż pozostaje wielkim eksperymentem w toku. Wstępne wyniki są obiecujące w niektórych obszarach – na przykład wielu studentów kończących nowe programy związane ze sztuczną inteligencją znajduje konkurencyjne zatrudnienie w branży technologicznej, finansowej i konsultingowej. Jednak wciąż pozostaje wiele otwartych pytań i głosów ostrzegawczych. „Nie wiemy, czym jest alfabetyzacja AI, jak z niej korzystać i jak jej uczyć. I prawdopodobnie nie będziemy tego wiedzieć przez wiele lat,” przyznaje profesor MIT Justin Reich, zauważając, że dzisiejszy pośpiech, by uczyć AI, może przypominać dążenie do nauczania „umiejętności komputerowych” dekady temu, których najlepsze praktyki stały się jasne dopiero z czasem [87]. Istnieje także wyzwanie związane z aktualizowaniem programów nauczania w dziedzinie, która rozwija się szybciej niż jakikolwiek katalog kursów. Uniwersytety radzą sobie z tym, zapraszając doradców z branży do współtworzenia kursów oraz kładąc nacisk na umiejętności uczenia się przez całe życie – ucząc studentów, jak samodzielnie poznawać nowe narzędzia AI, gdy tylko się pojawią. Jak ujęła to jedna z liderek organizacji edukacyjnej, „Wiele szczebli kariery znika. Największym błędem, jaki możemy popełnić jako edukatorzy, jest czekanie i wstrzymywanie się.” [88] Innymi słowy, bezczynność nie wchodzi w grę – uczelnie muszą płynąć na fali AI, nawet jeśli oznacza to naukę „surfowania” w trakcie.
Patrząc w przyszłość, wydaje się prawdopodobne, że AI stanie się tak wszechobecna w szkolnictwie wyższym jak komputery czy internet. Za dekadę fraza „AI w całym programie nauczania” może być po prostu normą. Każdy student może przejść kurs alfabetyzacji AI, tak jak uczy się podstaw pisania czy matematyki. W salach wykładowych mogą pojawić się tutorzy AI wspierający ludzkich profesorów, a laboratoria badawcze z pewnością będą wykorzystywać AI do przyspieszania odkryć. Jednak w tym optymistycznym scenariuszu edukatorzy, tacy jak profesor Pfau, przypominają nam o ponadczasowym rdzeniu edukacji: „Mam nadzieję, że studenci zachowają wystarczająco dużo szacunku do siebie i ciekawości, by odkrywać, kim są… coś, co możemy odkryć tylko wtedy, gdy sami – a nie jakiś system AI – podejmiemy się powierzonych nam zadań.” [89] Prawdziwym wyzwaniem dla szkolnictwa wyższego jest zrównoważenie niesamowitych możliwości sztucznej inteligencji z kształtowaniem ludzkiego intelektu i charakteru. W miarę jak uniwersytety wdrażają AI, stoją także przed zadaniem kierowania nią – zapewnienia, że ta potężna technologia będzie wspierać naukę, a nie ją zastępować. Wyścig trwa, a świat przygląda się, jak wieża z kości słoniowej przechodzi transformację w erze AI.
Źródła: Najnowsze wiadomości i raporty dotyczące AI w szkolnictwie wyższym, w tym Associated Press [90] [91], CalMatters [92] [93], komunikaty prasowe i oświadczenia uniwersytetów [94] [95], analizy ekspertów [96] [97], oraz międzynarodowe dyskusje polityczne [98]. Wszystkie cytaty i dane pochodzą z tych źródeł.
References
1. skywork.ai, 2. lakecountygazette.com, 3. apnews.com, 4. calmatters.org, 5. apnews.com, 6. apnews.com, 7. lakecountygazette.com, 8. skywork.ai, 9. skywork.ai, 10. apnews.com, 11. apnews.com, 12. apnews.com, 13. apnews.com, 14. www.reuters.com, 15. www.reuters.com, 16. www.unesco.org, 17. www.unesco.org, 18. skywork.ai, 19. skywork.ai, 20. skywork.ai, 21. skywork.ai, 22. skywork.ai, 23. lakecountygazette.com, 24. lakecountygazette.com, 25. lakecountygazette.com, 26. www.lakeforest.edu, 27. www.lakeforest.edu, 28. skywork.ai, 29. skywork.ai, 30. apnews.com, 31. apnews.com, 32. apnews.com, 33. apnews.com, 34. www.reuters.com, 35. www.reuters.com, 36. www.reuters.com, 37. calmatters.org, 38. calmatters.org, 39. calmatters.org, 40. calmatters.org, 41. calmatters.org, 42. apnews.com, 43. apnews.com, 44. calmatters.org, 45. calmatters.org, 46. calmatters.org, 47. apnews.com, 48. presidentsearch.ufl.edu, 49. www.iie.org, 50. www.iie.org, 51. www.unesco.org, 52. www.unesco.org, 53. lakecountygazette.com, 54. www.lakeforest.edu, 55. www.lakeforest.edu, 56. skywork.ai, 57. skywork.ai, 58. skywork.ai, 59. skywork.ai, 60. apnews.com, 61. calmatters.org, 62. apnews.com, 63. apnews.com, 64. marybaldwin.edu, 65. apnews.com, 66. apnews.com, 67. apnews.com, 68. apnews.com, 69. apnews.com, 70. apnews.com, 71. apnews.com, 72. apnews.com, 73. apnews.com, 74. apnews.com, 75. apnews.com, 76. apnews.com, 77. apnews.com, 78. skywork.ai, 79. skywork.ai, 80. skywork.ai, 81. skywork.ai, 82. skywork.ai, 83. www.reuters.com, 84. www.reuters.com, 85. www.iie.org, 86. www.iie.org, 87. calmatters.org, 88. calmatters.org, 89. apnews.com, 90. apnews.com, 91. apnews.com, 92. calmatters.org, 93. calmatters.org, 94. lakecountygazette.com, 95. marybaldwin.edu, 96. skywork.ai, 97. skywork.ai, 98. www.unesco.org