DODAJ FILM MP-4 LUB WPROST Z Y.T F.B lub inny
EDYTUJ SWÓJ FILM LUB USUŃ
ZOBACZ WSZYSTKIE SWOJE FILMY
    UWAGA !! WAŻNE - Poglądy i opinie zawarte w artykule mogą być niezgodne ze stanowiskiem redakcji. Zamieszczane artykułu są w wiekszości re- publikacjami materiałów z innych stron - REDAKCJA NIE INGERUJE W ICH TREŚCI W CELU ZACHOWANIA BEZSTRONNOŚCI , A CELEM PUBLIKACJI JEST PODDANIE TYCH MATERIAŁÓW POD OSĄD I KRYTYKĘ CZYTELNIKÓW W KTÓRE OPINIE NIE MOŻE INGEROWAĆ AUTOR MATERIAŁU W FORMIE MODERACJI LUB CENZURY

M-forum A.V Live.

WESPRZYJ DOWOLNĄ KWOTĄ ROZWÓJ JEDYNEJ W POLSCE NIEZALEŻNEJ STRONY INFORMACYJNEJ przycisk Przekaż darowiznę poniżej :-)

miejsce-na-reklame.

Sztuczna inteligencja i fałszywe wiadomości ☀Autor Gabi☀

0.00 avg. rating (0% score) - 0 votes
The following two tabs change content below.
miejsce-na-reklame.

Gabi

Witam, nazywam się Gabriela Nowak, pracuję jako asystentka  zarządzania i obsługi Klienta w Kancelarii Prawnej,  niedawno w kwietniu 2019 r zostałam Przewodnicząca Komisji Skrutacyjnej w Radzie Miasta - gdzie czynnie reprezentuję interesy mieszkańców, którzy mi zaufali i mnie wybrali ! STOP CENZURZE   UWAŻASZ, ŻE CENZURA - ŁAMIE TWOJE PRAWA RP ?  WESPRZYJ MNIE - W TYM CO ROBIĘ - ♛  z dopiskiem - DAROWIZNA  ! Nest Bank Polska 75187010452078115029220001  Nest Bank zagranica IBAN PL75187010452078115029220001  Kod SWIFT Nest Bank: NESBPLPW   Dziękuję, $$$ Pozdrawiam i zapraszam do komentowania !   ♡♡♡ ZOBACZ TAKŻE POMAGAM ♡♡♡  https://zrzutka.pl/gc97mb

Wydarzenie Fundacji Veronesi Science For Peace and Health odbędzie się w listopadzie   W BUTAC mieliśmy okazję porozmawiać z prof. Riccardo Zecchina, ekspert w dziedzinie sztucznej inteligencji, którego połączyłem z obszarem, z którym mamy do czynienia w tych stronach: fałszywe wiadomości. Bo zrozumienie ze słów eksperta, czy musimy obawiać się postępującego doskonalenia sztucznej inteligencji, czy może ona być sprzymierzeńcem w przeciwdziałaniu dezinformacji, jest ważne.

 BUTAC : Dużo się mówi o algorytmach przeciwdziałających fałszywym wiadomościom, Mark Zuckerberg podczas przesłuchania w Senacie USA kilkakrotnie wspominał o sztucznej inteligencji, argumentując, że w ciągu najbliższych dziesięciu lat AI rozwiąże większość problemów związanych z rozprzestrzenianiem się fałszywych informacji. Aktualności. Co myślisz? Czy będziemy mieli przyszłość, w której sztuczna inteligencja może przeciwdziałać rozprzestrzenianiu się zaburzeń informacji?

  • Prof. Zecchina: Ci z Państwa, którzy korzystają z poczty e-mail, wiedzą, że istnieje wiele wiadomości nazywanych spamem, tworzonych w celach reklamowych, które są automatycznie filtrowane przez system poczty elektronicznej. Ten system jest dziś oparty na sztucznej inteligencji. Teraz jest oczywiste, że w szczególności Facebook, ale wszystkie media społecznościowe, a zatem badacze pracujący dla tych firm, mają dostęp do dużej ilości danych, dzięki czemu są w stanie z całą pewnością zidentyfikować całą serię niewiarygodnych źródeł danych. Z pewnością będzie możliwość zidentyfikowania fałszywych kont, znalezienia powiązań między tymi, którzy produkują fałszywe wiadomości, a zatem będzie cała seria rzeczy, które można wprowadzić w życie. Konieczne jest jednak również wyjaśnienie, że potrzebna jest etyka. Należy uregulować wykorzystanie sztucznej inteligencji, a także korzystanie z cyfrowych narzędzi internetowych i całego szeregu połączonych operacji. Fake newsy istniały zawsze, dopiero dziś są wzmacniane przez sieć i dlatego konieczne jest z jednej strony regulowanie korzystania z samej sieci, az drugiej na pewno wykorzystywanie narzędzi sztucznej inteligencji do rozwiązywania całej serii konkretnych problemów. Nie sądzę, żeby to było panaceum, czyli sama sztuczna inteligencja nie wystarczy, wszyscy aktorzy społeczni powinni zgodzić się na regulację korzystania z tych systemów. W Europie robi się to częściej niż w Stanach Zjednoczonych i trzeba to robić coraz częściej w przyszłości.

BUTAC: Wśród krytycznych uwag, które często słyszę na temat sztucznej inteligencji, ta, którą wielokrotnie słyszałem, dotyczyła programowania samej sztucznej inteligencji. Znalazłem to w odniesieniu do określonej sztucznej inteligencji (Google i Facebooka, Perspective i Deeptalk) zaprojektowanej do zwalczania nienawiści i zastraszania w sieci. Podejrzewa się, że uczenie się przez ludzi z ich osobistymi uprzedzeniami może generować dużą liczbę fałszywych alarmów w oparciu o uprzedzenia wchłonięte przez programowanie. Czy tak jest naprawdę, czy są sposoby na przezwyciężenie błędów programistycznych?

  • Prof. Zecchina:Problem tego, co w algorytmach nazywamy stronniczością, czyli to, że algorytmy mają tendencję do dawania w jakiś sposób ukierunkowanych odpowiedzi w sposób systematyczny, pozwala mi uprościć, w sposób uczciwy, a nie obiektywny, wiąże się z rodzajem danych na szkolone są systemy sztucznej inteligencji. Omówiliśmy fakt, że są to algorytmy, które uczą się na przykładach i modyfikują się na podstawie przykładów. Jest więc jasne, że jeśli podamy jednostronne przykłady, w których mówimy na przykład, że mężczyźni zawsze odnoszą sukcesy, a kobiety nigdy nie odnoszą sukcesów, to jasne jest, że w ten sposób wprowadzamy fałszywe uprzedzenia ze względu na płeć, ponieważ nie ma powodu. tak musi być. Tak więc pasywnie te narzędzia będą odzwierciedlać błąd w danych.zwracaj uwagę na rodzaj danych, na podstawie których szkolimy systemy i dbaj o wszelkie nierówności, które mogą prowadzić do błędnych prognoz , z drugiej strony zawsze musimy zachować ostrożność, aby zachować prywatność danych . Można to zrobić z technicznego punktu widzenia modelowania: chodzi o powolne łączenie rzeczy. Otóż, jeśli istnieje korzyść z używania tych systemów, to znaczy, że wiemy, skąd bierze się błąd, a zatem jesteśmy w stanie wyleczyć jego skutki, dzięki czemu możemy na przykład uniknąć zniekształceń. Epizod, w którym opracowano niezwykły system rozpoznawania twarzy, jest sławny, szkoda, że ​​zastosowany do osób czarnoskórych w ogóle nie zadziałał, ponieważ w zbiorze danych nie było przykładów tej grupy etnicznej. Jest więc jasne, że musi istnieć taka „etyka cyfrowa”, w której tworzymy systemy, które a priori nie mają tego typu wad. Ale bardziej niż błędy w programowaniu, musimy uważać na błąd, który może być wywołany przez same dane, biorąc pod uwagę to Narzędzia oparte na sztucznej inteligencji uczą się na podstawie danych .

BUTAC : Z drugiej strony teraźniejszość, w której żyjemy, jest wypełniona przez sztuczną inteligencję tak zaawansowaną, że tworzy i zarządza fałszywymi profilami społecznościowymi z niemożliwymi do wykrycia obrazami profilowymi i postami, które wydają się napisane przez prawdziwą osobę: obawa polega na tym, że znacznie łatwiej jest nauczyć kłamać niż uczcie rozpoznawać prawdę.

  • Prof. Zecchina: To, że potrafisz komponować teksty, które wydają się prawdziwe, jest naprawdę interesującą i potencjalnie użyteczną rzeczą. Ale bądź ostrożny, ponieważ te sieci zawsze działają w oparciu o bodźce ludzkie. Są to więc w rzeczywistości kruche systemy. Zawsze trzeba odróżniać kosmetyki, czyli sposób prezentacji wyników w mediach, od treści. Często widzimy sceny z robotami wykonującymi niesamowite piruety lub słyszymy, jak chatbot mówi całą gamę rzeczy, które nas zaskakują. Ale to są systemy, które w obliczu małego wariantu nie są w stanie odpowiednio zareagować. Logicznie rzecz biorąc, jesteśmy nieskończenie dalecy od inteligencji podobnej do ludzkiej i można zidentyfikować tych, którzy są fałszywymi kontami lub działaniami wytwarzanymi w sposób seryjny, zaczynając od serii danych wejściowych. Więc nie bałbym się zbytnio. Oczywiście zjawisko to ma charakter ilościowy, jest zalew danych, zalew informacji generowanych w ten sposób, więc może to stać się problemem. żyjemy na rynku, na którym nasza uwaga stała się głównym atutem , więc media społecznościowe stale przyciągają naszą uwagę, a tym samym dostarczają nam serii danych wejściowych, które w jakiś sposób stymulują nas do pozostania w sieci przez cały czas i interakcji z te systemy. Ponownie, jakie jest rozwiązanie? Rozwiązaniem jest przede wszystkim unikanie zbytniego przebywania w sieci, ale także umiejętność czytania i pisania oraz narzędzi umożliwiających rozpoznawanie tych systemów. Ponownie, oczywiście, istnieje również potrzeba uregulowania samych systemów.

BUTAC: Jedna z aplikacji dla sztucznej inteligencji ma być używana jako wirtualni przyjaciele. W okresie blokady nastąpił gwałtowny wzrost wykorzystania aplikacji symulujących relacje międzyludzkie. Czy badamy, jak uczynić je jak najmniej ryzykownymi dla tych użytkowników, którzy są tak sugestywni, że nie zdają sobie sprawy z tego, że sztuczna inteligencja (na razie?). Czy naprawdę nie „rozumie”, o czym mówimy i jakie są tego konsekwencje? Na przykład w zeszłym miesiącu pojawiły się wiadomości, że sztuczna inteligencja aplikacji Replika podżegała do morderstwa wielu osób. Repubblica zatytułowała: Replika, aplikacja sztucznej inteligencji, która przekonała mnie do zabicia trzech osób. Czytając jasno, widać, że chatbot nie robił nic poza pobłażaniem użytkownikom, którzy wiedzieli, złośliwie, jak manipulować ich zachowaniem. Ale z pewnością są podmioty, które mogłyby natknąć się na te same logiczne ścieżki w sposób niezłośliwy i znaleźć się w takiej sytuacji.

  • Prof. Zecchina: Po raz kolejny musimy zrozumieć, jaki rodzaj inteligencji stoi za tymi aplikacjami i systemami, które symulują relacje międzyludzkie. Powtarzam jeszcze raz: to nie jest ludzka inteligencja . Są to systemy automatyczne, które potrzebują danych wejściowych do działania. Z pewnością są prezentowane w sieci w atrakcyjnej formie, ale same w sobie są słabo inteligentne, w istocie chciałbym powiedzieć, że wcale nimi nie są. Znowu kosmetyków jest dużo: zdania, które piszą, mogą być poprawne językowo, mogą wydawać się sensowne, ale jeśli spróbujesz w końcu porozmawiać, niewiele z tego wyjdziesz. Oczywiste jest, że ludzie, na których można łatwo wpływać, mogą wpaść w takie pułapki.Młodzi ludzie muszą być chronieni przed tym ogromnym strumieniem bezużytecznych, jeśli nie wprowadzających w błąd informacji. Po raz kolejny chodzi o regulację i edukację. Najlepsze jest to, że młodzi ludzie mają kluczowe narzędzia, aby zrozumieć, z czym mają do czynienia. Nie ulega jednak wątpliwości, że należy zająć się aspektem etycznym. Uważaj na artykuły i nagłówki gazet, ponieważ często wprowadzają one w błąd. Zapraszam wówczas do weryfikacji efektywnego działania narzędzi, których używamy. Absolutnie nie chcę lekceważyć problemu, wręcz przeciwnie uważam, że bardzo ważne jest unikanie przepełnienia tego typu technologii. Należy jednak pamiętać, że są to instrumenty pasywnei nawet jeśli są bardzo wyrafinowane, na razie są łatwe do zidentyfikowania przez osoby z minimalnym doświadczeniem. Nie rozwiązuje to problemu społecznego, który wręcz przeciwnie, może być naprawdę poważny lub jeszcze bardziej nasilić się w przyszłości.

Wywiad kończy się tutaj, ale będziemy mieli okazję porozmawiać z gośćmi Fundacji Veronesi i wydarzenia Nauka dla pokoju i zdrowia.

butac.it

0.00 avg. rating (0% score) - 0 votes
miejsce-na-reklame.

One thought on “Sztuczna inteligencja i fałszywe wiadomości ☀Autor Gabi☀

  1. Naprawdę dobry artykuł! Każdego dnia wprowadzamy podobne rozwiązania dla klientów z różnych branż. Dzięki zastosowaniu technologii przetwarzania języka naturalnego (NLP) znacznie poprawiliśmy skuteczność AI-Chatbot InteliWISE. Klient, używając swojego naturalnego języka codziennego, zadaje pytanie, a wirtualny doradca natychmiast daje gotowe rozwiązanie jego problemu. Opisujemy niektóre z naszych przykładów z InteliWISE w Polsce i na całym świecie na http://www.inteliwise.pl

Wyraź swoją opinię ! TO WAŻNE !!

Witryna wykorzystuje Akismet, aby ograniczyć spam. Dowiedz się więcej jak przetwarzane są dane komentarzy.

%d bloggers like this: