8 mitów na temat sztucznej inteligencji, w które wierzą nawet programiści
Miscellanea / / June 01, 2023
ChatGPT i Stable Diffusion nie zamienią się w Skynet z całą swoją wolą.
Mit 1. AI ma zdolność bycia kreatywnym
Patrząc na kreacje sieci neuronowych typu Midjourney, Stable Diffusion czy DALL·E 2 wiele osób przewiduje koniec zawodu artysty. W końcu to, co człowiek będzie rysował godzinami i dniami, maszyna może stworzyć w kilka sekund. Czy to oznacza, że sztuczna inteligencja przewyższa żywy mózg kreatywnością?
Sztuczna inteligencja może dobrze naśladować ludzką kreatywność, ale wszystkie jej kreacje są w jakiś sposób podobne do tego, co już widzieliśmy lub słyszeliśmy. Sieci neuronowe przeglądają tysiące i miliony obrazów, a następnie na ich podstawie tworzą coś podobnego. Ale to nie to samo co praca. artysta z referencją, ponieważ AI po prostu nie rozumie, co kopiuje.
Najbardziej godne uwagi przykład: sieci neuronowe mają znaczne trudności z rysowaniem rąk. Sztuczna inteligencja po prostu nie jest w stanie określić, ile palców powinna mieć dana osoba.
Poza tym sieci neuronowe nie radzą sobie dobrze z rysowaniem wzorów i wzorów, liter (na obrazkach tam, gdzie powinien być tekst, wstawiają śmieci), budynków i samochodyi tylko postaci w pozach różniących się od typowego „siedzącego”, „stojącego”, „leżącego”. Nie potrafią odróżnić pierwszego planu od tła obiektów, nie potrafią pracować z perspektywą i nie mają poczucia przestrzeni.
Jesteś tylko maszyną. Po prostu imitacja życia. Robot ułoży symfonię? Czy robot zamieni kawałek płótna w arcydzieło sztuki?
Detektyw Del Spooner
Film „Ja, robot”
Sama AI nie zamierza zaprzeczać swoim słabościom. Zapytany, dlaczego nie celował w rysowaniu palców, ChatGPT odpowiedzi:
„Sztuczna inteligencja nie może rysować rąk, ponieważ musi zrozumieć anatomię ludzkiego ciała i podstawy rysowania, aby to zrobić. I chociaż sztuczną inteligencję można wyszkolić do tworzenia obrazów ludzi lub zwierząt, nie jest ona w stanie w pełni uchwycić wielu niuansów i szczegółów, które można dostrzec tylko podczas obserwacji rzeczywistego obiektu. Ponadto tworzenie obrazów za pomocą sztucznej inteligencji to tylko obliczenia matematyczne, a nie proces twórczy, który wymaga od człowieka intuicji i komponentu emocjonalnego”.
Tak więc sieci neuronowe artystów nie zastąpią. Inna sprawa, że mogą stać się dobrym źródłem tych ostatnich. Inspiracja. W końcu obrazy generowane przez sztuczną inteligencję można wykorzystać jako miniatury własnych, bardziej rozbudowanych obrazów.
Mit 2. Sztuczna inteligencja jest zawsze otwarta i bezstronna
Wielu marzy, że nadejdzie czas, kiedy państwami będą rządzić sieci neuronowe. Uważa się, że maszyny, w przeciwieństwie do ludzi, podejmują decyzje wyłącznie na podstawie logiki, a nie emocji i pragnień. Wyobraźcie sobie nieprzekupne sądy, które zawsze wydają sprawiedliwe wyroki, państwa, które wszystkich swoich obywateli traktują jednakowo, rządy, które tworzą tylko rozsądek prawa. To jest dobre.
Ale w praktyce okazuje się, że sztuczna inteligencja może być stronnicza. W końcu sieci neuronowe Są przeszkoleni na danych, które ludzie im przekazują, a ludzie mają tendencję do bycia stronniczymi.
Na przykład twórcy sieci neuronowej Beauty. Sztuczna inteligencja próbowała stworzyć maszynę, która wybierałaby najpiękniejsze dziewczyny w konkursach piękności. W zbiorze zdjęć, z których program został wyszkolony do rozpoznawania standardy kobieca atrakcyjność, dominowały białe modele. I wreszcie SI zdecydowanyże ciemnoskóre i Azjatki nie mogą być piękne.
Zespół piękności. AI zdało sobie sprawę, że stworzyło rasistowską sztuczną inteligencję i anulowało projekt.
Innym przykładem jest chatbot Tay.ai firmy Microsoft, który musiał nauczyć się, jak prowadzić „swobodną i zabawną rozmowę” z ludźmi online.
Wystarczyło mniej niż 24 godziny bycia online, aby sieć neuronowa zebrała dane od użytkowników sieci społecznościowych złe nawyki. W rezultacie Tay.ai, udając zwykłą 19-latkę, zaczęła obrażać ludzi w komentarzach, chwalić niezdrowe ruchy polityczne, potępiać feminizm, a jednocześnie powiedziećże feminizm jest fajny. Jak mówią, z kim będziesz się zachowywać ...
Bez względu na to, jak dobra jest AI, zależy to od jakości przekazywanych jej danych i poprawności ich interpretacji. W konsekwencji zawsze będzie stronniczy dokładnie tak samo, jak ludzie, którzy go uczą, są stronniczy.
Mit 3. AI zawsze mówi prawdę
Kto nie chciałby mieć ze sobą robota-asystenta, który zawsze wskaże właściwe rozwiązanie i wykona całą ciężką pracę umysłową? Poproś AI o napisanie rozprawy lub zebranie listy źródeł do artykuły - a maszyna od razu podaje poprawne dane. Wspaniale!
Ale niestety prawdziwe sieci neuronowe są daleko nie zawsze podaj poprawne odpowiedzi. Spróbuj na przykład poprosić ChatGPT o pomoc w zaplanowaniu pracy semestralnej, a szybko to znajdziesz maszyna… tworzy linki do nieistniejących źródeł i wstawia niedziałające adresy URL, aby wyglądał jak jej tekst bardziej przekonujący.
Jeśli zapytasz chatbota, dlaczego próbuje Cię oszukać, niewinnie odpowie, że kiedy się uczył, wszystkie linki były istotne i nie jest za nic winny.
Lepiej też nie pytać ChatGPT o dane statystyczne – np. na kilka pytań o PKB tych samych krajów za ten sam rok, spokojnie dał zupełnie inne wyniki.
Nie popełnij błędu: sieci neuronowe nie mają intelekt i dlatego nie są świadomi swoich odpowiedzi. Po prostu kopiują dla Ciebie dane z wcześniej przetworzonych tekstów, które wydaje się im najbardziej odpowiedni.
Sama sztuczna inteligencja jest podatna na błędy i usterki, powodujące błędną interpretację twoich żądań i podawanie nieprawidłowych wyników. Ponadto szkodliwi użytkownicy móc „zasilić” sieć neuronową nieprawdziwymi informacjami. W końcu sztuczna inteligencja zostanie zaprogramowana do ukrywania się lub zniekształcić dane w swoich odpowiedziach, a nawet nosić śmieci.
Mit 4. AI spowoduje bezrobocie
Postępy w generatorach tekstu, takich jak ChatGPT, doprowadziły niektórych do obaw, że sieci neuronowe odejmą pracę milionom ludzi i spowodują ogromny wzrost bezrobocia.
Oceń sam: ChatGPT może nie tylko prowadzić swobodną rozmowę, ale także pisać wiadomości, przepisywać artykuły, a nawet programować. Z tymi trendami i pisarze, a programiści i redaktorzy wraz z dziennikarzami zostaną bez środków do życia.
Tak myślą ludzie, którzy albo w ogóle nie pracowali z siecią neuronową, albo dopiero poznali jej możliwości i od razu byli zachwyceni. Albo przerażony.
Jeśli przez jakiś czas będziesz używać sztucznej inteligencji do generowania tekstów, zauważysz, że maszyna nie jest zbyt przywiązana do semantycznej treści swoich pism. Zamiast tego powtarza te same tezy innymi słowami.
ChatGPT rozdaje klejnoty, z których śmieją się prawdziwi copywriterzy. Na przykład dla osób zainteresowanych instrumentami ludowymi sieć neuronowa radzi „Weź łyżki i zacznij dmuchać”. Z programowanie to też nie wszystko gładko żegluje. Sztuczna inteligencja może być przydatna dla programistów, ale jej możliwości ograniczają się do pisania małych algorytmów i podprogramów.
Kod generowany przez ChatGPT często okazało się niedziałający lub przerwany w środku. Poproś sztuczną inteligencję o skomentowanie linii jej powstania, a ona spokojnie dostarczy im tekst „logika programu jest tutaj”. Młodszy programista zostawiający takie opisy w projekcie raczej nie zostałby pogłaskany po głowie.
Studium Organizacji Współpracy Gospodarczej i Rozwoju przedstawia, co w najlepszym (dla AI) przypadku jest całkowicie zautomatyzować tylko 10% miejsc pracy w USA i 12% w Wielkiej Brytanii jest możliwych.
Sieci neuronowe są w stanie wykonywać nudne rutynowe czynności za osobę, takie jak sortowanie poczty i przepisywanie wiadomości według sztywno ustalonego planu. Ale analitycy OECD doszli do siebie wniosekże AI nie będzie mogła ubiegać się o stanowiska wymagające wysokiego poziomu wykształcenia i złożone umiejętności.
Ogólnie rzecz biorąc, jest mało prawdopodobne, że ChatGPT weźmie chleb od osoby.
Mit 5. AI stanie się inteligentna
Fizyk Stephen Hawking powiedziałże sztuczna inteligencja może całkowicie zastąpić człowieka. Znane osobistości, takie jak Elon Musk, Gordon Moore i Steve Wozniak również wspomniany o niebezpieczeństwach AI i potrzebie wstrzymać eksperymenty, aby go rozwinąć.
Idź i dowiedz się, co myśli myślący komputer.
Wiele futurolodzy i pisarzy przewidziałże rozwój pełnoprawnej sztucznej inteligencji doprowadzi do negatywnych konsekwencji dla człowieka.
Ale kluczowym słowem jest tutaj „kompletny”. Sam termin sztuczna inteligencja w odniesieniu do sieci neuronowych typu ChatGPT nie jest do końca poprawne, ponieważ nie posiadają one inteligencji. Są tylko algorytmami, złożonymi zestawami poleceń i modelami matematycznymi i nie są w stanie odtworzyć funkcji poznawczych człowieka.
Powód jest prosty: sami nie wiemy jeszcze zbyt dobrze, jak to działa. nasz mózg. A odtworzenie go w kodzie jest w ogóle zadaniem niemożliwym.
Istnieć pojęcia „słaba” i „silna” SI. Pierwsza to te same sieci neuronowe do generowania tekstu czy sortowania maili. Nie mogą samodzielnie podejmować decyzji ani uczyć się na podstawie nowych danych.
A silna sztuczna inteligencja to Skynet z Terminatora czy AM z opowiadania Ellisona. Komputer, który nie tylko operuje informacjami, ale w pewnym stopniu rozumie ich znaczenie. Taka sztuczna inteligencja istnieć tylko w dziełach fantastycznych i ogólnie nieznanyczy możliwe jest stworzenie elektronicznego analogu ludzkiego mózgu, przynajmniej teoretycznie.
Mit 6. Wkrótce sztuczna inteligencja zacznie się rozwijać niezależnie i nadejdzie osobliwość technologiczna
Osobliwość technologiczna to hipotetyczny stan cywilizacji ludzkiej, kiedy rozwój technologii staje się tak szybki, że człowiek nie jest w stanie nad nim zapanować. Jednym z autorów tej koncepcji był brytyjski matematyk Irving Goode.
Naukowiec zasugerował: jeśli stworzysz samouczącego się „inteligentnego agenta”, poprawi się on w niezgłębionym tempie. Sztuczna inteligencja zacznie tworzyć nowe technologie i modernizować się, a ludzkość, nie mogąc tego zrozumieć, będzie beznadziejnie opóźniona w rozwoju.
Pierwsza superinteligentna maszyna jest ostatnim wynalazkiem, jakiego człowiek kiedykolwiek będzie potrzebował. Pod warunkiem, że będzie na tyle potulna, żeby nam powiedzieć, jak ją kontrolować.
Irving dobry
Matematyk
Ale, jak już wyjaśniliśmy, samodoskonalenie zdolny tylko silna sztuczna inteligencja, a naukowcy nie mają teraz pojęcia, jak ją stworzyć.
Słaba sztuczna inteligencja jest szkolona na informacjach, które „karmią” ją programiści. Aby trenować sieć neuronową wymagany specjalistów, którzy ustalają odpowiednie dane dla każdego nowego cyklu treningowego, eliminują błędy w próbkach treningowych oraz aktualizują oprogramowanie.
Sieci neuronowe nie mogą rozwijać się poza możliwości, które są w nich osadzone w ich kodzie. Tak więc technologiczna osobliwość jest opóźniona.
Mit 7. AI zbuntuje się przeciwko twórcom
Sztuczna inteligencja z wystarczająco rozwiniętą świadomością mogłaby teoretycznie uważać ludzi za zagrożenie. I na wszelki wypadek pozbądź się ich, rozpętając wojnę nuklearną lub zarażając ludność planety śmiercionośnym wirus. Nigdy nie wiadomo, nagle te bezwłose małpy wyciągną wtyczkę z gniazdka.
To popularna historia w science fiction. Jeden z jego pierwszych używany w 1967 roku amerykański pisarz Harlan Ellison w swoim opowiadaniu „Nie mam ust, ale muszę krzyczeć”. W nim wszechmocny komputer AM nienawidził swoich twórców, wytępionej ludzkości i pozostawił tylko pięć osób na planecie, aby kpiły z nich tylko bez powodu.
Chwała robotom. Śmierć ludziom.
W rzeczywistości bunt AI jest niemożliwy. Algorytmy oprogramowania nie są samoświadome, nie mają wolnej woli i emocjonalny reakcje. Nie mogą żywić negatywnych uczuć wobec swoich twórców ani chęci zniewolenia ludzkości. Sieci neuronowe nie są w stanie samodzielnie zmieniać swoich parametrów ani programu, aby wymknąć się spod kontroli.
Coś takiego w teorii Może silna SI. Ale, jak wspomniano powyżej, przy nowoczesnych technologiach tworzenie go nie będzie działać.
Mit 8. Roboty ze sztuczną inteligencją będą zabijać ludzi
Kiedy mówimy o niebezpieczeństwach związanych ze sztuczną inteligencją i powstaniu maszyn, zwykle myślimy o obrazach z filmów takich jak Terminator. Kierowana przez sztuczną inteligencję horda mechanicznych istot podobnych do ludzi, ale silniejszych i szybszych od niego, eksterminuje swoich wynalazców.
W praktyce taki scenariusz jest wyjątkowo mało prawdopodobny i nie chodzi nawet o brak chęci AI do zabicia kogoś. Po prostu obecny stan robotyki jest daleko w tyle za tym, co widzieliśmy w Terminatorze i „Matryca».
Na przykład robo-bopy firmy Boston Dynamics różnią się możliwościami od czworonożnego zabójcy z serii Black Mirror Metalhead. Nie wiedzą, jak tak szybko biegać, by gonić uciekających ludzi. Próbując dogonić Cię na schodach, ten sam Spot może łatwo zaplątać się w jego nogi i spaść.
Jeszcze bardziej znaczącą przeszkodą w tworzeniu zmechanizowanych zabójców jest brak wystarczająco zwartego, mocnego i długotrwałego źródła energii.
Robops Boston Dynamics zdolny „Żyj” na jednym ładowaniu do 90 minut - to zdecydowanie za mało, aby reprezentować ich armię do zniszczenia ludzkości. Nie wynaleziono jeszcze reaktorów, które działają od 120 lat z rzędu i które można umieścić w skrzyni maszyny wielkości człowieka, jak w Terminatorze.
Wreszcie, umieszczenie sztucznej inteligencji w samodzielnej maszynie jest zadaniem niemożliwym. W fantazji Jamesa Camerona mieści się w chipie wielkości paznokcia. W rzeczywistości, aby sztuczna inteligencja myślała, potrzebna jest znaczna moc obliczeniowa – np. ChatGPT pracuje na farmie, składający się z 10 000 kart graficznych.
Czy możesz sobie wyobrazić, jaki rozmiar musi mieć ogromny humanoid? robotżeby pomieścić takie "mózgi", a jakie ma mieć chłodzenie?
Przeczytaj także🧐
- 8 znanych urządzeń, które mogą Cię szpiegować. I to nie jest żart
- 10 fantastycznych wynalazków filmowych, które stały się rzeczywistością
- Ponad 100 usług opartych na sieciach neuronowych do różnorodnych zadań