How will ChatGPT, DALL-E and other AI tools impact the future of work? We asked 5 experts

Od energii parowej i elektrycznej po komputery i internet, postęp technologiczny zawsze powodował zakłócenia na rynkach pracy, wypierając niektóre zawody i tworząc inne. Sztuczna inteligencja pozostaje czymś w rodzaju błędnego określenia – najinteligentniejsze systemy komputerowe nadal nic nie wiedzą – ale technologia ta osiągnęła punkt zwrotny, w którym może wpłynąć na nowe klasy zawodów: artystów i pracowników wiedzy.

W szczególności, pojawienie się dużych modeli językowych – systemów AI, które są szkolone na ogromnych ilościach tekstu – oznacza, że komputery mogą teraz tworzyć ludzko brzmiący język pisany i przekształcać opisowe frazy w realistyczne obrazy. The Conversation poprosił pięciu badaczy sztucznej inteligencji o omówienie tego, jak duże modele językowe mogą wpłynąć na artystów i pracowników wiedzy. Jak zauważyli nasi eksperci, technologia jest daleka od doskonałości, co rodzi wiele problemów – od dezinformacji po plagiat – które dotyczą pracowników ludzkich.

Kreatywność dla wszystkich – ale utrata umiejętności?

Lynne Parker, zastępca kanclerza, Uniwersytet Tennessee

Wielkie modele językowe sprawiają, że kreatywność i praca nad wiedzą są dostępne dla wszystkich. Każdy posiadający połączenie z Internetem może teraz korzystać z narzędzi takich jak ChatGPT czy DALL-E 2, aby wyrazić siebie i nadać sens ogromnym zasobom informacji, tworząc na przykład streszczenia tekstów.

Szczególnie godna uwagi jest głębia ludzkiego doświadczenia, jaką wykazują duże modele językowe. W ciągu zaledwie kilku minut nowicjusze mogą stworzyć ilustracje do swoich prezentacji biznesowych, wygenerować oferty marketingowe, zdobyć pomysły na pokonanie blokady pisarskiej lub wygenerować nowy kod komputerowy do wykonania określonych funkcji, a wszystko to na poziomie jakości przypisywanym zwykle ludzkim ekspertom.

Te nowe narzędzia AI nie potrafią oczywiście czytać w myślach. Potrzebny jest nowy, prostszy rodzaj ludzkiej kreatywności w postaci podpowiedzi tekstowych, aby uzyskać wyniki, których poszukuje użytkownik. Dzięki iteracyjnemu podpowiadaniu – przykładowi współpracy człowieka z SI – system SI generuje kolejne rundy wyników, aż człowiek piszący podpowiedzi będzie zadowolony z rezultatów. Na przykład (ludzki) zwycięzca niedawnego konkursu Colorado State Fair w kategorii artystów cyfrowych, który użył narzędzia napędzanego przez SI, wykazał się kreatywnością, ale nie taką, która wymaga użycia pędzli oraz oka do kolorów i tekstur.

Choć otwarcie świata kreatywności i pracy opartej na wiedzy dla wszystkich przynosi znaczące korzyści, te nowe narzędzia AI mają również minusy. Po pierwsze, mogą one przyspieszyć utratę ważnych ludzkich umiejętności, które pozostaną ważne w nadchodzących latach, zwłaszcza umiejętności pisania. Instytuty edukacyjne muszą spreparować i egzekwować polityki dotyczące dopuszczalnych zastosowań dużych modeli językowych, aby zapewnić uczciwą grę i pożądane wyniki nauczania.Edukatorzy przygotowują się do świata, w którym uczniowie mają gotowy dostęp do generatorów tekstu napędzanych przez AI.

Po drugie, takie narzędzia AI rodzą pytania o ochronę własności intelektualnej. Podczas gdy ludzcy twórcy regularnie inspirują się istniejącymi artefaktami na świecie, w tym architekturą i pismami, muzyką i obrazami innych osób, istnieją pytania bez odpowiedzi dotyczące właściwego i uczciwego wykorzystania przez duże modele językowe przykładów szkoleniowych chronionych prawem autorskim lub pochodzących z otwartego źródła. Trwające procesy sądowe debatują obecnie nad tą kwestią, co może mieć wpływ na przyszły projekt i wykorzystanie dużych modeli językowych.

Podczas gdy społeczeństwo radzi sobie z implikacjami tych nowych narzędzi AI, wydaje się, że jest gotowe je przyjąć. Chatbot ChatGPT szybko stał się wirusem, podobnie jak generator obrazów Dall-E mini i inne. Sugeruje to ogromny, niewykorzystany potencjał kreatywności oraz znaczenie udostępnienia pracy twórczej i wiedzy dla wszystkich.

Potencjalne nieścisłości, stronniczość i plagiat

Daniel Acuña, profesor nadzwyczajny informatyki, University of Colorado Boulder

Jestem regularnym użytkownikiem GitHub Copilot, narzędzia pomagającego ludziom pisać kod komputerowy, i spędziłem niezliczone godziny bawiąc się ChatGPT i podobnymi narzędziami do generowania tekstu przez AI. Z mojego doświadczenia wynika, że te narzędzia są dobre w odkrywaniu pomysłów, o których wcześniej nie myślałem.

Byłem pod wrażeniem zdolności modeli do tłumaczenia moich instrukcji na spójny tekst lub kod. Są przydatne do odkrywania nowych sposobów na poprawienie przepływu moich pomysłów lub tworzenia rozwiązań za pomocą pakietów oprogramowania, o których istnieniu nie miałem pojęcia. Kiedy widzę, co te narzędzia generują, mogę ocenić ich jakość i mocno edytować. Ogólnie rzecz biorąc, myślę, że podnoszą one poprzeczkę tego, co jest uważane za kreatywne.

Mam jednak kilka zastrzeżeń.

Jeden zestaw problemów to ich nieścisłości – małe i duże. Z Copilotem i ChatGPT ciągle szukam, czy pomysły nie są zbyt płytkie – na przykład tekst bez większej treści lub nieefektywny kod, lub dane wyjściowe, które są po prostu złe, takie jak złe analogie lub wnioski, lub kod, który nie działa. Jeśli użytkownicy nie są krytyczni wobec tego, co te narzędzia produkują, są one potencjalnie szkodliwe.

Ostatnio Meta wyłączyła swój duży model językowy Galactica dla tekstów naukowych ponieważ zmyślał „fakty”, ale brzmiał bardzo pewnie. Obawiano się, że może on zanieczyścić internet pewnie brzmiącymi fałszywkami.

Innym problemem są uprzedzenia. Modele językowe mogą uczyć się na podstawie stronniczości danych i je replikować. Te uprzedzenia są trudne do zauważenia w generowaniu tekstu, ale bardzo wyraźne w modelach generowania obrazów. Naukowcy z OpenAI, twórcy ChatGPT, byli stosunkowo ostrożni w kwestii tego, na co model będzie reagował, ale użytkownicy rutynowo znajdują sposoby na obejście tych barier ochronnych.

Innym problemem jest plagiat. Ostatnie badania wykazały, że narzędzia do generowania obrazów często plagiatują pracę innych. Czy to samo dzieje się z ChatGPT? Myślę, że nie wiemy. Narzędzie może parafrazować swoje dane szkoleniowe – jest to zaawansowana forma plagiatu. Praca w moim laboratorium pokazuje, że narzędzia do wykrywania plagiatów tekstowych są daleko w tyle, jeśli chodzi o wykrywanie parafraz.

two rows of six images, each top and bottom pair very similar to each other

Narzędzia te są w powijakach, biorąc pod uwagę ich potencjał. Na razie wierzę, że istnieją rozwiązania dla ich obecnych ograniczeń. Na przykład, narzędzia mogłyby sprawdzać wygenerowany tekst pod kątem faktów w bazach wiedzy, wykorzystywać zaktualizowane metody wykrywania i usuwania błędów z dużych modeli językowych oraz przepuszczać wyniki przez bardziej zaawansowane narzędzia do wykrywania plagiatów.

Gdy ludzie zostaną pokonani, pozostaną niszowe i „ręcznie robione” zawody

Kentaro Toyama, profesor informacji społecznej, Uniwersytet Michigan

My, istoty ludzkie, uwielbiamy wierzyć w naszą wyjątkowość, ale nauka i technologia wielokrotnie udowodniły, że to przekonanie jest błędne. Kiedyś sądzono, że ludzie są jedynymi zwierzętami, które używają narzędzi, tworzą zespoły czy krzewią kulturę, ale nauka pokazała, że inne zwierzęta robią każdą z tych rzeczy.

Tymczasem technologia obaliła, jedno po drugim, twierdzenia, że zadania poznawcze wymagają ludzkiego mózgu. Pierwsza maszyna do dodawania została wynaleziona w 1623 roku. W zeszłym roku wygrała konkurs plastyczny praca wygenerowana przez komputer. Wierzę, że osobliwość – moment, w którym komputery spotkają się z ludzką inteligencją, a nawet ją przewyższą – jest na horyzoncie.

Jak będzie wyceniana ludzka inteligencja i kreatywność, gdy maszyny staną się mądrzejsze i bardziej kreatywne niż najzdolniejsi ludzie? Prawdopodobnie będzie to kontinuum. W niektórych dziedzinach ludzie nadal cenią sobie ludzi wykonujących pewne czynności, nawet jeśli komputer może zrobić to lepiej. Minęło ćwierć wieku, odkąd Deep Blue firmy IBM pokonał mistrza świata Garriego Kasparowa, ale ludzkie szachy – z całym ich dramatyzmem – nie zniknęły.

a magazine cover illustration showing an astronaut striding toward the viewer on a desert-like planet

W innych dziedzinach umiejętności człowieka będą wydawać się kosztowne i zbędne. Weźmy na przykład ilustracje. W większości przypadków czytelnicy nie zwracają uwagi na to, czy grafika towarzysząca artykułowi w magazynie została narysowana przez człowieka czy przez komputer – chcą tylko, żeby była istotna, nowa i być może zabawna. Jeśli komputer potrafi dobrze rysować, to czy czytelnicy zwracają uwagę na to, czy w linii tytułowej jest napisane Mary Chen czy System X? Ilustratorzy tak, ale czytelnicy mogą nawet tego nie zauważyć.

I oczywiście, to pytanie nie jest czarno-białe. Wiele dziedzin będzie hybrydą, gdzie niektórzy homo sapiens znajdą szczęśliwą niszę, ale większość pracy wykonają komputery. Pomyślmy o produkcji – duża jej część jest dziś wykonywana przez roboty, ale niektórzy ludzie nadzorują maszyny i pozostaje rynek dla produktów wykonywanych ręcznie.

Jeśli historia jest jakąkolwiek wskazówką, jest niemal pewne, że postępy w AI spowodują, że zniknie więcej miejsc pracy, że ludzie z klasy kreatywnej, posiadający wyłącznie ludzkie umiejętności, staną się bogatsi, ale będzie ich mniej, a ci, którzy posiadają kreatywną technologię, staną się nowymi megabogatymi. Jeśli jest jakaś srebrna strona, to może być nią to, że kiedy jeszcze więcej ludzi będzie pozbawionych godnych warunków do życia, ludzie mogą zebrać wolę polityczną, aby powstrzymać rozprzestrzeniające się nierówności.

Stare miejsca pracy odejdą, pojawią się nowe

Mark Finlayson, profesor nadzwyczajny informatyki, Florida International University

Duże modele językowe to wyrafinowane maszyny do uzupełniania sekwencji: Daj jednemu z nich ciąg słów („Chciałbym zjeść …”), a zwróci on prawdopodobne uzupełnienia („… jabłko”). Duże modele językowe, takie jak ChatGPT, które zostały wytrenowane na rekordowej liczbie słów (biliony), zaskoczyły wielu, w tym wielu badaczy AI, tym jak realistyczne, obszerne, elastyczne i wrażliwe na kontekst są ich uzupełnienia.

Jak każda potężna nowa technologia, która automatyzuje jakąś umiejętność – w tym przypadku generowanie spójnego, choć nieco ogólnego tekstu – będzie miała wpływ na tych, którzy oferują tę umiejętność na rynku. Aby wyobrazić sobie, co może się stać, warto przypomnieć sobie wpływ wprowadzenia edytorów tekstu we wczesnych latach 80. Niektóre zawody, takie jak maszynistka, niemal całkowicie zniknęły. Z drugiej jednak strony, każdy, kto posiadał komputer osobisty, mógł z łatwością tworzyć dobrze sformatowane dokumenty, co znacznie zwiększyło wydajność pracy.

Ponadto pojawiły się nowe zawody i umiejętności, których wcześniej nie można było sobie wyobrazić, jak na przykład często uwzględniana w CV pozycja MS Office. A rynek produkcji dokumentów wysokiej klasy pozostał, stając się znacznie bardziej zdolny, wyrafinowany i wyspecjalizowany.

Myślę, że ten sam wzorzec prawie na pewno będzie obowiązywał w przypadku dużych modeli językowych: Nie będzie już potrzeby, by prosić innych ludzi o zredagowanie spójnego, ogólnego tekstu. Z drugiej strony, duże modele językowe umożliwią nowe sposoby pracy, a także doprowadzą do powstania nowych, jeszcze niewyobrażalnych zawodów.

Aby to dostrzec, rozważmy trzy aspekty, w których duże modele językowe nie sprawdzają się. Po pierwsze, stworzenie podpowiedzi, która da pożądany efekt, może wymagać sporej dozy (ludzkiego) sprytu. Niewielkie zmiany w podpowiedzi mogą spowodować poważne zmiany w danych wyjściowych.

Po drugie, duże modele językowe mogą generować nieodpowiednie lub nonsensowne dane wyjściowe bez ostrzeżenia.

Po trzecie, o ile badacze AI mogą powiedzieć, duże modele językowe nie mają abstrakcyjnego, ogólnego zrozumienia tego, co jest prawdą lub fałszem, czy coś jest dobre lub złe, a co jest po prostu zdrowym rozsądkiem. W szczególności nie potrafią wykonywać stosunkowo prostej matematyki. Oznacza to, że ich dane wyjściowe mogą być nieoczekiwanie mylące, tendencyjne, błędne logicznie lub po prostu fałszywe.

Te wady są szansą dla pracowników kreatywnych i pracowników wiedzy. Dla wielu treści tworzonych, nawet dla szerokiej publiczności, ludzie nadal będą potrzebować osądu ludzkich kreatywnych i pracowników wiedzy, aby podpowiadać, kierować, zestawiać, kuratorować, edytować, a zwłaszcza zwiększać wydajność maszyn. Wiele rodzajów specjalistycznego i wysoce technicznego języka pozostanie w przewidywalnej przyszłości poza zasięgiem maszyn. Pojawią się też nowe rodzaje pracy – na przykład ci, którzy będą zarabiać na dostrajaniu wewnętrznych dużych modeli językowych w celu wygenerowania pewnych specjalistycznych rodzajów tekstu, które będą służyć konkretnym rynkom.

Podsumowując, chociaż duże modele językowe z pewnością zapowiadają zakłócenia dla pracowników kreatywnych i pracowników wiedzy, nadal istnieje wiele cennych możliwości dla tych, którzy są gotowi dostosować się i zintegrować te potężne nowe narzędzia.

Skoki technologiczne prowadzą do nowych umiejętności

Casey Greene, profesor informatyki biomedycznej, University of Colorado Anschutz Medical Campus

Technologia zmienia charakter pracy, a praca oparta na wiedzy nie jest inna. W ciągu ostatnich dwóch dekad biologia i medycyna przechodziły transformację dzięki gwałtownym postępom w charakteryzacji molekularnej, takim jak szybkie i niedrogie sekwencjonowanie DNA, oraz cyfryzacji medycyny w postaci aplikacji, telemedycyny i analizy danych.

Niektóre kroki w technologii wydają się większe niż inne. Yahoo wdrożyło ludzkich kuratorów do indeksowania pojawiających się treści podczas świtu World Wide Web. Pojawienie się algorytmów, które wykorzystywane są do informacji zawartych we wzorcach linkowania w sieci do nadania priorytetu wynikom radykalnie zmieniło krajobraz wyszukiwania, przekształcając sposób, w jaki ludzie gromadzą dziś informacje.

Wydanie ChatGPT OpenAI oznacza kolejny skok. ChatGPT opakowuje najnowocześniejszy duży model językowy dostosowany do czatu w wysoce użyteczny interfejs. Dzięki temu dekada szybkiego postępu w sztucznej inteligencji jest na wyciągnięcie ręki. Narzędzie to może pisać zdawalne listy motywacyjne i instruować użytkowników w zakresie rozwiązywania typowych problemów w wybranych przez użytkownika stylach językowych.

Tak jak umiejętności wyszukiwania informacji w Internecie zmieniły się wraz z pojawieniem się Google, tak umiejętności niezbędne do uzyskania najlepszych wyników z modeli językowych będą koncentrować się na tworzeniu podpowiedzi i szablonów podpowiedzi, które dają pożądane wyniki.

W przypadku przykładu listu motywacyjnego możliwe jest zastosowanie wielu podpowiedzi. „Napisz list motywacyjny do pracy” dałoby bardziej ogólny wynik niż „Napisz list motywacyjny na stanowisko specjalisty ds. wprowadzania danych”. Użytkownik mógłby stworzyć jeszcze bardziej szczegółowe podpowiedzi, wklejając fragmenty opisu stanowiska, życiorysu i konkretnych instrukcji – na przykład „podkreśl dbałość o szczegóły”.

Jak w przypadku wielu postępów technologicznych, w erze szeroko dostępnych modeli AI zmieni się sposób interakcji ludzi ze światem. Pytanie brzmi, czy społeczeństwo wykorzysta ten moment do zwiększenia sprawiedliwości, czy do pogłębienia nierówności.

Zostaw komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Scroll to Top