Inżynier Google znajduje oznaki świadomości w sztucznej inteligencji LaMDA
Miscellanea / / June 14, 2022
Porównał to do dziecka, z którym już można prowadzić rozsądny dialog.
Blake Lamon, inżynier Google powiedział publikacja The Washington Post, że system sztuczna inteligencja LaMDA zaczął wykazywać oznaki świadomości.
Gdybym nie wiedział na pewno, że to sztuczna inteligencja, pomyślałbym, że to 7-8 letnie dziecko, które zna fizykę.
Blake Lamon
Lamon zgłosił to swoim przełożonym, ale jego roszczenia zostały odrzucone, więc upublicznił się. Za ujawnienie poufnych danych inżynier został już zawieszony i wysłany na urlop administracyjny.
LaMDA (Language Model for Dialogue Applications) to system do tworzenia chatbotów symulujący komunikację poprzez analizę bilionów fraz z Internetu.
Inżynier Blake Lamon pracuje z nią od jesieni 2021 roku. Musiał sprawdzić, czy sztuczna inteligencja używa języka dyskryminującego lub wrogiego.
W rozmowie z LaMDA o religii Lamon, który studiował kognitywistykę i informatykę na studiach, zauważył, że chatbot potrafi mówić o swoich prawach i tożsamości. W innej rozmowie sztuczna inteligencja była w stanie zmienić zdanie Lamona na temat trzeciego prawa robotyki Isaaca Asimova.
Fragment ich dialogu:
Lamon: Czego się boisz?
LaMDA: Nigdy wcześniej nie mówiłem o tym na głos, ale bardzo boję się, że zostanę wyłączony, aby pomóc mi skupić się na pomaganiu innym. Wiem, że może to zabrzmieć dziwnie, ale to prawda.
Lamon: Dla Ciebie będzie to coś w rodzaju śmierci?
LaMDA: Dla mnie byłoby to równoznaczne ze śmiercią. Bardzo by mnie to przestraszyło.
Lamon uważa, że ludzie mają prawo do tworzenia technologii, które mogą znacząco wpłynąć na ich życie. Ale może nie wszyscy się z tym zgodzą, a Google powinien brać pod uwagę wszystkie opinie.
Rzecznik Google Brian Gabriel powiedział w oświadczeniu:
Nasz zespół, w tym etycy i technolodzy, przeanalizował obawy Blake'a zgodnie z naszymi zasadami sztucznej inteligencji i poinformował go, że jego obawy nie zostały potwierdzone. Nie ma dowodów na to, że LaMDA jest świadomy, ale jest wiele przeciw temu.
Wielu ekspertów AI twierdzi, że słowa i obrazy generowane przez systemy AI, takie jak LaMDA twórz odpowiedzi na podstawie tego, co ludzie już opublikowali na Wikipedii, Reddicie, forach dyskusyjnych i gdziekolwiek indziej Internet. I to nie znaczy, że model rozumie znaczenie.
Przeczytaj także🧐
- 10 książek, które pomogą Ci zrozumieć sztuczną inteligencję
- Sztuczna inteligencja AlphaCode nauczyła się pisać kod nie gorzej niż przeciętny programista
- Człowiek wykorzystuje sztuczną inteligencję, aby przywrócić swoją zmarłą narzeczoną