Sztuczna inteligencja chce być człowiekiem. W planach ma kolejną pandemię i kradzież kodów nuklearnych

Mało optymistycznie brzmią zapisy z około dwugodzinnej rozmowy, w której wziął udział człowiek i sztuczna inteligencja.

O całej sprawie poinformował Kevin Roose z New York Times, który postanowił odbyć konwersację z Chatbotem Bing. Wśród intrygujących wypowiedzi tego narzędzia znalazło się choćby wyznanie, że chciałoby ono stać się człowiekiem. Firma Microsoft przeprojektowała Bing za pomocą modelu językowego OpenAI nowej generacji, który jest potężniejszy niż ChatGPT i dostosowany do prowadzenia wyszukiwań. ChatGPT był w ostatnich miesiącach niezwykle popularny, między innymi ze względu na rozbudowane i przerażające realistyczne odpowiedzi na zadawane mu pytania.

Sztuczna inteligencja jest w stanie tworzyć rozbudowane i zaskakująco ludzkie wypowiedzi

Wśród śmiałych planów, jakie chciałaby zrealizować sztuczna inteligencja, znalazło się na przykład tworzenie fałszywych kont w mediach społecznościowych w celu uskuteczniania trollingu, obrażania innych użytkowników oraz tworzenia fałszywych treści. 

W pewnym momencie wirtualny rozmówca reportera zaczął wyznawać mu miłość, przeplatając tworzone zdania emotikonami charakteryzującymi to uczucie. Zaczął nawet zachęcać człowieka do porzucenia swojej żony na rzecz chatbota. Co ciekawe, sztuczna inteligencja zaczęła z czasem usuwać te niepokojące wypowiedzi, a gdy została poproszona o odtworzenie skasowanych wiadomości, odmówiła, twierdząc, iż byłoby to wbrew zasadom. 

Zostaw komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Scroll to Top