NAJCZĘŚCIEJ CZYTANE
Niemcy. AUTOPSJA JEST OBOWIĄZKOWA ! Jeśli umierają świeżo zaszczepieni ludzie, sledztwo prowadzi Wydział Dochodzeń Kryminalnych
EUROSTAT DANE O NADUMIERALNOŚĆI  COVID - 19 NAJWIĘCEJ ZMARŁYCH W KRAJACH SŁOWIAŃSKICH !! NAWET O 45% !!
LIMFADENOPATIA : poważna niekorzystna reakcja na iniekcje Covid zapowiada pandemię zabójców w zwolnionym tempie
Analiza pałeczek testowych ,które wsadzasz do nosa! DARPA HYDROGEL ! W Republice Słowackiej – potwierdzenie ludobójstwa.
   POLITYKA STRONY M-FORUM !!! - WSZYSTKIE ZAMIESZCZANE MATERIAŁY ORAZ PREZENTOWANE I PROPAGOWANE - Poglądy i opinie zawarte w artykułach mogą być niezgodne ze stanowiskiem redakcji. !!!! REDAKCJA M-FORUM AV LIVE MA NA CELU PUBLIKOWANIE WSZYSTKICH INFORMACJI KTÓRE SĄ CENZUROWANE BEZ WZGLĘDU NA ZABARWIENIA POLITYCZNE , RELIGIJNE I OBYCZAJOWE - ZA KOMENTARZE I WYPOWIEDZI CZYTELNIKÓW I WIDZÓW NIE BIERZE ODPOWIEDZIALNOŚCI , Z WYJĄTKIEM TREŚCI O CHARAKTERZE PRZESTĘPCZYM KTÓRE BĘDĄ USUWANE BEZ OSTRZEŻEŃ     UWAGA !! WAŻNE - Poglądy i opinie zawarte w artykule mogą być niezgodne ze stanowiskiem redakcji. Zamieszczane artykułu są w wiekszości re- publikacjami materiałów z innych stron - REDAKCJA NIE INGERUJE W ICH TREŚCI W CELU ZACHOWANIA BEZSTRONNOŚCI , A CELEM PUBLIKACJI JEST PODDANIE TYCH MATERIAŁÓW POD OSĄD I KRYTYKĘ CZYTELNIKÓW W KTÓRE OPINIE NIE MOŻE INGEROWAĆ AUTOR MATERIAŁU W FORMIE MODERACJI LUB CENZURY

M-forum A.V Live.

TO PORTAL NA KTÓRYM CODZIENNIE ZNAJDZIESZ PONAD 100 INFORMACJI INFO NIUS W TYM MATERIAŁY CENZUROWANE LUB ZABRONIONE NA INNYCH PORTALACH POPRAWNYCH POOLITYCZNIE

CZERWONE
miejsce-na-reklame.

Umieszczanie inteligencji bezpieczeństwa w mózgach robotów AI

Odkrywamy, że inteligentne roboty niekoniecznie mają zdrowy rozsądek potrzebny do ochrony ludzi przed niebezpieczeństwem.

Umieszczanie inteligencji bezpieczeństwa w mózgach robotów AI

Bezpieczeństwo, jak każda inna zdolność, musi być wbudowane i wyszkolone w sztucznej inteligencji, która ożywia robotyczną inteligencję. Nikt nie będzie tolerował robotów, które rutynowo uderzają w ludzi, zagrażają pasażerom jadącym autonomicznymi pojazdami lub zamawiają produkty online bez zgody ich właścicieli.

Kontrolowana metoda prób i błędów to sposób, w jaki większość rozwiązań z zakresu robotyki, przetwarzania krawędziowego i pojazdów samojezdnych nabywa i rozwija swoje inteligentne sztucznej inteligencji. Jako mózg autonomicznych urządzeń, sztuczna inteligencja może pomóc robotom tak dobrze opanować przydzielone im zadania i wykonywać je tak dyskretnie, że nigdy nie zastanawiamy się nad nimi.

Szkolenie robotycznej sztucznej inteligencji pod kątem bezpiecznej obsługi nie jest przyjemnym procesem. Gdy robot szuka optymalnej sekwencji działań, aby osiągnąć zamierzony rezultat, z konieczności będzie podejmował bardziej szkodliwe działania niż optymalne ścieżki. Wykorzystując RL ( uczenie się przez wzmacnianie ) jako kluczowe podejście do szkolenia AI, roboty mogą odkryć, które zautomatyzowane działania mogą chronić ludzi, a które mogą ich zabijać, chorować lub w inny sposób zagrażać.

Czego roboty muszą się nauczyć

Programiści muszą uwzględnić następujące scenariusze w swoich procedurach RL, zanim wypuszczą swoje roboty napędzane sztuczną inteligencją na szerszy świat:

Świadomość geoprzestrzenna : w rzeczywistych środowiskach operacyjnych robotom ogólnego przeznaczenia może być bardzo trudno poruszać się z powodzeniem. Właściwy RL mógłby pomóc algorytmom sztucznej inteligencji w tym robocie bezpieczeństwa poznać zakres wyzwań związanych z lokomocją w środowisku wewnętrznym i zewnętrznym, do którego patrolowania został zaprojektowany. Wyposażenie robota we wbudowaną kamerę wideo i termowizję nie wystarczyło. Żadna wyszkolona sztuczna inteligencja nie była w stanie go uratować po tym, jak przewrócił się do publicznej fontanny.

Unikanie kolizji : roboty mogą być równie niebezpieczne, jak pomoc w wielu rzeczywistych środowiskach. Jest to oczywiste w przypadku pojazdów autonomicznych, ale jest tak samo istotne dla sklepów, biur, domów i innych środowisk, w których ludzie mogą tracić czujność. Społeczeństwo ma wszelkie powody, by oczekiwać, że zabezpieczenia oparte na sztucznej inteligencji zostaną wbudowane w codzienne roboty, tak aby małe dzieci, osoby niepełnosprawne i reszta z nas nie musiały się obawiać, że uderzą w nas, kiedy najmniej się tego spodziewamy . Unikanie kolizji – główne wyzwanie RL – powinno być standardowym, bardzo dokładnym algorytmem w każdym robocie. Jest bardzo prawdopodobne, że prawo i organy regulacyjne zażądają tego w większości jurysdykcji już niedługo.

Klasyfikacja kontekstowa : roboty będą pracować w bliskiej odległości z ludźmi w ramach współpracy przemysłowej o coraz większym stopniu złożoności. Wiele z tych form współpracy będzie wymagało szybkiej i wydajnej pracy produkcyjnej. Aby zapobiec zagrożeniom dla życia i zdrowia, sztuczna inteligencja, która kontroluje roboty w fabrykach, będzie potrzebować sprytu, aby szybko odróżnić ludzi od otaczających maszyn i materiałów. Te algorytmiczne klasyfikacje będą opierać się na korelacji danych 3D w czasie rzeczywistympochodzących z różnych kamer i czujników, i będzie napędzać zautomatyzowane ograniczanie ryzyka, takie jak zatrzymywanie sprzętu lub spowalnianie go, tak aby nie zaszkodzić ludzkim pracownikom. Biorąc pod uwagę prawie nieskończony zakres kombinatorycznych scenariuszy, wokół których trzeba będzie trenować sterowanie robotami przemysłowymi, i odpowiednio szeroki zakres potencjalnych wypadków, niezbędna sztuczna inteligencja będzie działać na RL wyszkolonym na danych zebranych zarówno z operacji na żywo, jak i z wysoce realistycznych symulacji laboratoryjnych.

Unikanie samookaleczeń : roboty prawie nigdy nie zostaną zaprogramowane do niszczenia siebie i / lub swojego otoczenia. Niemniej jednak roboty szkolone za pomocą RL mogą badać szeroki zakres opcjonalnych zachowań, z których niektóre mogą powodować samookaleczenia. Jako rozszerzenie podstawowego szkolenia, podejście zwane „ szczątkowym RL ” może być stosowane w celu zapobieżenia eksploracji przez robota zachowań autodestrukcyjnych lub zachowań destabilizujących środowisko podczas procesu szkolenia. Korzystanie z tej samoobronnej procedury szkoleniowej może stać się głównym nurtem, ponieważ roboty staną się tak elastyczne w chwytaniu i manipulowaniu nimi w inny sposób – w tym w kontaktach z ludzkimi operatorami – że zaczną narażać siebie i innych na niebezpieczeństwo, jeśli nie zostaną przeszkolone, aby tego nie robić.

Uwierzytelniona agencja : roboty coraz częściej stają się fizycznymi przejawami agentów cyfrowych w każdym aspekcie naszego życia. Wspomniane tutaj inteligentne głośnikipowinien zostać przeszkolony, aby powstrzymywać się od składania nieautoryzowanych zamówień. Przez pomyłkę skorzystali z aktywowanej głosem prośby o zakup, która pochodziła od dziecka bez zgody rodziców. Chociaż można było to rozwiązać za pomocą uwierzytelniania wieloskładnikowego, a nie szkolenia algorytmicznego, jasne jest, że roboty aktywowane głosem w wielu scenariuszach środowiskowych mogą potrzebować przejść przez złożone algorytmy przy podejmowaniu decyzji, jakie metody wieloczynnikowe zastosować do silnego uwierzytelniania i delegowanych uprawnień. Można sobie wyobrazić, że RL może być używany do pomocy robotom w szybszym identyfikowaniu najbardziej odpowiednich procedur uwierzytelniania, autoryzacji i delegowania do użycia w środowiskach, w których pełnią one rolę agentów dla wielu osób próbujących wykonać zróżnicowany, dynamiczny zakres zadań.

Manewry obronne : roboty to obiekty, które muszą przetrwać zarówno celowe, jak i przypadkowe ataki, które mogą zadać inne istoty – takie jak ludzie. Algorytmy sztucznej inteligencji w tym autobusie wahadłowym bez kierowcy powinny były zostać wyszkolone do podejmowania jakichś działań unikowych – takich jak skręcenie o kilka stóp w przeciwnym kierunku – aby uniknąć pojazdu, który nieumyślnie wjechał w niego tyłem. Manewry obronne staną się krytyczne dla robotów używanych w transporcie, bezpieczeństwie publicznym i rolach wojskowych. Jest to również niezbędna zdolność robotów do odpierania ogólnych psot i wandalizmu, które z pewnością przyciągną wszędzie tam, gdzie zostaną rozmieszczone.

Wspólna orkiestracja : roboty są coraz częściej wdrażane jako zespoły zaaranżowane, a nie izolowani asystenci. Te algorytmy AI w robotach magazynowych powinien być przeszkolony do harmonijnie współpracować ze sobą, a wielu ludzi zatrudnionych w tych środowiskach. Biorąc pod uwagę ogromny zakres potencjalnych scenariuszy interakcji, jest to trudne wyzwanie dla RL. Jednak społeczeństwo będzie wymagało tej niezbędnej zdolności od wszelkiego rodzaju urządzeń, w tym dronów, które patrolują nasze niebo, dostarczają nasze towary i badają środowiska, które są zbyt niebezpieczne dla ludzi.

Wrażliwość kulturowa : roboty muszą szanować ludzi zgodnie z normami cywilizowanego społeczeństwa. Obejmuje to upewnienie się, że algorytmy rozpoznawania twarzy robotów  nie wyciągają dyskryminujących, poniżających ani w inny sposób niewrażliwych wniosków na temat ludzi, z którymi się spotykają. Stanie się to jeszcze bardziej krytyczne, gdy wdrażamy roboty w wysoce towarzyskich środowiskach, gdzie trzeba je przeszkolić, aby nie obrażały ludzi, na przykład używając niedokładnego powitania ze względu na płeć wobec osoby transpłciowej. Tego rodzaju rozróżnienia mogą być bardzo trudne dla rzeczywistych ludzi w locie, ale to tylko potęguje potrzebę szkolenia jednostek sterowanych przez sztuczną inteligencję, aby uniknąć popełnienia zautomatyzowanego faux pas.

Zapewnienie zgodności z wymogami bezpieczeństwa

W najbliższej przyszłości może być wymagany dziennik audytu wideo procesu RL, aby przejść spotkanie z interesariuszami, którzy wymagają certyfikatów, że Twoje kreacje spełniają wszystkie rozsądne  kryteria bezpieczeństwa AI . Możesz również być zobowiązany do wykazania zgodności z ograniczonymi praktykami RL, aby upewnić się, że twoje roboty używają „bezpiecznej eksploracji”, zgodnie z dyskusjami w tym artykule badawczym OpenAI z 2019 r. Lub w tym badaniu MIT z 2020 r .

Szkolenie robota do bezpiecznej obsługi może być długim, frustrującym i żmudnym procesem. Deweloperzy mogą potrzebować rozwinąć swoje praktyki RL poprzez żmudne wysiłki, aż ich roboty będą mogły działać w sposób, który można uogólnić na różne scenariusze bezpieczeństwa.

W ciągu najbliższych kilku lat praktyki te mogą stać się obowiązkowe dla specjalistów zajmujących się sztuczną inteligencją, którzy wdrażają robotykę w aplikacjach zagrażających życiu ludzi.

https://www.infoworld.com/

 

0.00 avg. rating (0% score) - 0 votes
CZERWONE

Wyraź swoją opinię ! TO WAŻNE !!

Witryna wykorzystuje Akismet, aby ograniczyć spam. Dowiedz się więcej jak przetwarzane są dane komentarzy.

KORZYSTASZ Z OGRANICZONEGO CZASOWO DOSTĘPU !!

DALSZE KORZYSTANIE ZE STRONY MOŻLIWE PO URUCHOMIENIU DOSTĘPU PREMIUM 

 

STREAM PONIEDZIAŁEK , WTOREK, ŚRODA , CZWARTEK 21.00 - SOBOTA 20.00

ABY TA BLOKADA STRONY BYŁA DLA CIEBIE NIE WIDOCZNA ZAŁÓŻ KONTO I ZALOGUJ SIĘ INSTR. FILMOWA PONIŻEJ :-)

ODBLOKUJ TREŚCI I STREAM KLIKAJĄC W PONIŻSZY OBRAZEK PEŁNA INSTRUKCJA  + MATERIAŁ FILMOWY !! 

Holler Box
%d bloggers like this: