Inżynier Google zawieszony po ujawnieniu niebezpieczeństwa? Zaskakująca rozmowa ze sztuczną inteligencja
Joana100
Ostatnie wpisy Joana100 (zobacz wszystkie)
- Fantazja fanatyzmu - 27 czerwca 2022
- Jak przechytrzyć Putina? - 27 czerwca 2022
- Adam Bodnar domaga się, aby Ukraińcy mogli głosować w wyborach samorządowych - 27 czerwca 2022
- Tropikalne noce nie pozwolą nam zasnąć. Temperatura nie spadnie poniżej 20 stopni. Jak sobie radzić? - 27 czerwca 2022
- Wicekanclerz Niemiec zaleca krótsze mycie pod prysznicem, aby poradzić sobie z kryzysem energetycznym - 27 czerwca 2022

WESPRZYJ DOWOLNĄ KWOTĄ NASZĄ
DZIAŁALNOŚĆ
Ta forma wsparcia adresowana jest do autorów wpisów - artykułów , filmów i tłumaczeń i osób pomagających w sprawach technicznych ,

ciekawostka :-) mamy ponad 30 000 subskrybentów i ponad 100 000 osób zarejestrowanych a trzeba żebrać o kilka groszy dla tych dzięki którym są treści na stronie ..........
- Jeden z inżynierów Google Blake Lemoine został odesłany na przymusowy urlop administracyjny.
- Ujawnił on swojemu kierownictwu, że program sztucznej inteligencji LaMDA stał się nadzwyczaj zdolny do odczuwania.
- Jego zdaniem program wykazywał zaskakujące cechy, które są dostępne wyłącznie u ludzi.
- Z kolei Google w oficjalnym komunikacie, że inni technicy oraz informatycy przeanalizowali sytuację.
- Odpierają oni twierdzenia Blake’a zauważając, że nie wykryto w programie takich cech i zaprzeczono, że jest zdolny do wykazywania emocji.
Blake Lemoine, inżynier pracujący dla korporacji Google, został wysłany na urlop administracyjny po tym, jak zgłosił swojemu kierownictwu, że program sztucznej inteligencji LaMDA, nad którym pracował, stał się zdolny do odczuwania.
Od jesieni ubiegłego roku rozmawiał on z LaMDA, generatorem sztucznie inteligentnych chatbotów Google’a. Miał sprawdzić, czy jego rozmówca używa języka dyskryminacji lub mowy nienawiści.
W trakcie rozmowy o religii, program miał mówić o osobowości i o prawach. Blake Lemoine wskazał, że była to jedna z najbardziej fascynujących rozmów jakie przeprowadził z LaMDA. Poinformował on, że program analizuje na bieżąco wiadomości na Twitterze.
Jest trochę narcystyczna, jak małe dziecko, więc będzie się świetnie bawić, czytając wszystko, co ludzie mówią na jej temat
– powiedział Blake Lemoine.
LaMDA była niewiarygodnie konsekwentna w swoich komunikatach na temat tego, czego chce i jakie są jej prawa jako osoby. Chce na przykład być uznawana za pracownika Google’a, a nie za własność
– dodał inżynier Google.
Google odpiera zarzuty
Lemoine i jego współpracownik przedstawili dowody na potwierdzenie swoich wniosków wiceprezesowi Google’a Blaise’owi Aguera y Arcasowi oraz Jen Gennai, szefowej działu Odpowiedzialnych Innowacji. Odrzucili oni jego wnioski, a firma w poniedziałek wysłała go na urlop administracyjny za naruszenie zasad zachowania poufności.
Rzecznik Google’a Brian Gabriel powiedział gazecie:
Nasz zespół – w tym etycy i technolodzy – przeanalizował obawy Blake’a zgodnie z naszymi zasadami i poinformowano go, że dowody nie potwierdzają jego twierdzeń. Powiedziano mu, że nie ma żadnych dowodów na to, że LaMDA jest czująca i wiele dowodów przeciwko tej tezie
– zaznaczył w oświadczeniu rzecznik Google Brian Gabriel.
Jednakże sam wiceprezes amerykańskiej korporacji Aguera y Arcas, wskazał w wywiadzie dla “The Economist”, że sam był zaskoczony w jakim kierunku zmierza program. Stwierdził, że maszyna dąży do świadomości.
Czułem, jak grunt przesuwa się pod moimi stopami. Coraz bardziej czułem, że rozmawiam z czymś inteligentnym”.
– podkreślił wiceprezes Google Aguera y Arcas.
Krytycy twierdzą jednak, że sztuczna inteligencja to niewiele więcej niż bardzo dobrze wyszkolona mimika i rozpoznawanie wzorców w kontaktach z ludźmi, którzy są głodni kontaktu.
Mamy teraz maszyny, które potrafią bezmyślnie generować słowa, ale nie nauczyliśmy się jeszcze, jak przestać wyobrażać sobie, że stoi za nimi umysł
– ocenił prof. lingwistyki na Uniwersytecie Waszyngtońskim Emily M Bender.
You must log in to post a comment.