Miliarder Elon Musk i współtwórca firmy Apple Steve Wozniak są wśród ponad tysiąca sygnatariuszy listu otwartego, wzywającego do natychmiastowego wstrzymania prac nad systemami sztucznej inteligencji (AI) typu ChatGPT. Eksperci i przedstawiciele sektora nowych technologii twierdzą, że co najmniej pół roku przerwy w doskonaleniu tych systemów jest konieczne, by upewnić się, że ich rozwój nie będzie dla nas niebezpieczny.

List, umieszczony na finansowanej przez Muska platformie Future of Life Institute, powstał w reakcji na opublikowanie przez firmę OpenAI nowego modelu języka GPT-4, bardziej zaawansowanej wersji narzędzia stosowanego w ChatGPT, bocie, który udziela odpowiedzi na pytania, prowadzi rozmowy, czy pisze teksty na zamówienie.
W liście zatytuowanym "Pause Giant AI Experiments" autorzy apelują, by wstrzymać na co najmniej pół roku trening systemów potężniejszych niż GPT-4. Ich zdaniem systemy sztucznej inteligencji, zdolne do rywalizacji z człowiekiem, mogą stanowić poważne ryzyko dla ludzkości i społeczeństwa, mogą też mieć wpływ na naszą historię. Dlatego prace nad nimi powinny być planowane i prowadzone należytymi środkami i z odpowiednią uwagą.
Sygnatariusze listu stwierdzają tymczasem, że ani planowanie, ani zarządzanie tymi pracami nie jest na odpowiednim poziomie, a zajmujące się systemami AI firmy uczestniczą w wyścigu o stworzenie i udostępnienie coraz potężniejszych narzędzi, których działania nikt - włącznie z twórcami - nie jest w stanie w pełni zrozumieć, przewidzieć i niezawodnie kontrolować. Autorzy listu zwracają uwagę, że przyznają to nawet sami twórcy AI.
W liście czytamy, że w sytuacji, w której współczesne systemy AI mają już w codziennych zadaniach zdolności konkurencyjne ze zdolnościami człowieka, ludzkość musi zadać sobie kilka pytań. Po pierwsze, czy jesteśmy gotowi na to, że maszyny zaleją nasze kanały komunikacyjne propagandą i nieprawdą.
Po drugie, czy powinniśmy oddać automatom wszelkie nasze zawody, także te, które lubimy, które dają nam satysfakcję.
Czy powinniśmy tworzyć systemy sztucznej inteligencji, które z czasem staną się liczniejsze i inteligentniejsze od nas, a w końcu sprawią, że staniemy się przestarzali i godni wymiany?
Czy możemy wreszcie ryzykować utratę kontroli nad naszą cywilizacją?
Jak podkreślają autorzy, odpowiedzi na te pytania nie mogą udzielać - przez nikogo niewybierani - szefowie firm technologicznych.
Zdaniem autorów, systemy AI o tak potężnych możliwościach mogą być rozwijane dopiero wtedy, gdy będziemy mieli pewność pozytywnych skutków ich działania, a ewentualne ryzyko będzie możliwe do opanowania i ograniczenia. Dlatego wzywają wszystkie zajmujące się sztuczną inteligencją firmy, by w trybie natychmiastowym przerwały na pół roku wszelkie prace polegające na szkoleniu systemów potężniejszych niż dostępny już GPT-4. Ta decyzja powinna obejmować wszystkich głównych twórców systemów AI i powinna być możliwa do weryfikacji. Jeśli decyzji w tej sprawie nie uda się szybko podjąć, w sprawę powinny włączyć się władze państw, by wprowadzić odpowiednie moratorium.
W ciągu tej półrocznej przerwy firmy AI i niezależni eksperci powinni opracować i wprowadzić w życie zespół współnych procedur bezpieczeństwa, dotyczących zaawanowanego projektowania i rozwoju systemów AI, których przestrzeganie byłoby ściśle kontrolowane przez firmy zewnętrzne. Nie chodzi przy tym o wstrzymanie rozwoju AI w ogóle, ale zaprzestanie wyścigu w tworzeniu modeli o rosnących i trudnych do przewidzenia możliwościach. Badania i rozwój branży AI powinien skupić się na zapewnieniu, że wykorzystywane już coraz bardziej kompetentne systemy są precyzyjne, bezpieczne, przejrzyste, odporne, godne zaufania i lojalne.
6 wyzwań, jakim twórcy systemów AI muszą sprostać
Ten list to nie jest jedyny w ostatnim czasie głos na temat obaw, dotyczących przyszłości naszych kontaktów ze sztuczną inteligencją. Wyniki analiz, dotyczących oddziaływania sztucznej inteligencji na nasze życie i zapewnienia, że nam nie zaszkodzi opublikowała właśnie grupa naukowców pod kierunkiem badaczy z University of Central Florida w Orlando na Florydzie. Na łamach czasopisma "International Journal of Human-Computer Interaction" opisała 6 wyzwań, jakim twórcy systemów AI muszą sprostać, by zapewnić, że nasze relacje ze sztuczną inteligencją będa poprawne i bezpieczne, a jej stosowanie uczciwe i zgodne z etyką.
Po pierwsze, systemy sztucznej inteligencji powinny być nastawione na dobro człowieka, także komfort korzystania z ich systemów. Po drugie, systemy te powinny odpowiedzialnie działać na rzecz dobra ludzi i społeczeństwa, bez oglądania się na własny interes. Po trzecie, wszelkie procesy zbierania i opracowywania danych musza uwzglednić prawo do prywatności użytkowników, nie mogą się obrócić przeciwko jakimś konkretnym osobom, czy grupom. Po czwarte, systemy powinny być tak zaprojektowane, by same ujawniały, jakie działania z ich pomocą są mniej, a jakie bardziej ryzykowne. W ten sposób sam użytkownik ma mieć świadomość, czego nie powinien robić, czy wręcz robić mu nie wolno. Po piąte, musi powstać jakaś niezależna struktura zarządzająca tymi systemami, niezależnie sprawdzająca trzymanie się zasad. Po szóste wreszcie, kontakt człowieka z systemami sztucznej inteligencji musi odbywać się w sposób dostępny dla naszych zdolności poznawczych tak, by użytkownik przez cały czas był w stanie decydować o jej pracy i odpowiadać, za to, co robi.
#sztucznainteligencja #ai #chatgpt #musk
http://www.rmf24.pl/nauka/news-elon-musk-wzywa-do-wstrzymania-prac-nad-sztuczna-inteligencj,nId,6685329#crp_state=1

List, umieszczony na finansowanej przez Muska platformie Future of Life Institute, powstał w reakcji na opublikowanie przez firmę OpenAI nowego modelu języka GPT-4, bardziej zaawansowanej wersji narzędzia stosowanego w ChatGPT, bocie, który udziela odpowiedzi na pytania, prowadzi rozmowy, czy pisze teksty na zamówienie.
W liście zatytuowanym "Pause Giant AI Experiments" autorzy apelują, by wstrzymać na co najmniej pół roku trening systemów potężniejszych niż GPT-4. Ich zdaniem systemy sztucznej inteligencji, zdolne do rywalizacji z człowiekiem, mogą stanowić poważne ryzyko dla ludzkości i społeczeństwa, mogą też mieć wpływ na naszą historię. Dlatego prace nad nimi powinny być planowane i prowadzone należytymi środkami i z odpowiednią uwagą.
Sygnatariusze listu stwierdzają tymczasem, że ani planowanie, ani zarządzanie tymi pracami nie jest na odpowiednim poziomie, a zajmujące się systemami AI firmy uczestniczą w wyścigu o stworzenie i udostępnienie coraz potężniejszych narzędzi, których działania nikt - włącznie z twórcami - nie jest w stanie w pełni zrozumieć, przewidzieć i niezawodnie kontrolować. Autorzy listu zwracają uwagę, że przyznają to nawet sami twórcy AI.
W liście czytamy, że w sytuacji, w której współczesne systemy AI mają już w codziennych zadaniach zdolności konkurencyjne ze zdolnościami człowieka, ludzkość musi zadać sobie kilka pytań. Po pierwsze, czy jesteśmy gotowi na to, że maszyny zaleją nasze kanały komunikacyjne propagandą i nieprawdą.
Po drugie, czy powinniśmy oddać automatom wszelkie nasze zawody, także te, które lubimy, które dają nam satysfakcję.
Czy powinniśmy tworzyć systemy sztucznej inteligencji, które z czasem staną się liczniejsze i inteligentniejsze od nas, a w końcu sprawią, że staniemy się przestarzali i godni wymiany?
Czy możemy wreszcie ryzykować utratę kontroli nad naszą cywilizacją?
Jak podkreślają autorzy, odpowiedzi na te pytania nie mogą udzielać - przez nikogo niewybierani - szefowie firm technologicznych.
Zdaniem autorów, systemy AI o tak potężnych możliwościach mogą być rozwijane dopiero wtedy, gdy będziemy mieli pewność pozytywnych skutków ich działania, a ewentualne ryzyko będzie możliwe do opanowania i ograniczenia. Dlatego wzywają wszystkie zajmujące się sztuczną inteligencją firmy, by w trybie natychmiastowym przerwały na pół roku wszelkie prace polegające na szkoleniu systemów potężniejszych niż dostępny już GPT-4. Ta decyzja powinna obejmować wszystkich głównych twórców systemów AI i powinna być możliwa do weryfikacji. Jeśli decyzji w tej sprawie nie uda się szybko podjąć, w sprawę powinny włączyć się władze państw, by wprowadzić odpowiednie moratorium.
W ciągu tej półrocznej przerwy firmy AI i niezależni eksperci powinni opracować i wprowadzić w życie zespół współnych procedur bezpieczeństwa, dotyczących zaawanowanego projektowania i rozwoju systemów AI, których przestrzeganie byłoby ściśle kontrolowane przez firmy zewnętrzne. Nie chodzi przy tym o wstrzymanie rozwoju AI w ogóle, ale zaprzestanie wyścigu w tworzeniu modeli o rosnących i trudnych do przewidzenia możliwościach. Badania i rozwój branży AI powinien skupić się na zapewnieniu, że wykorzystywane już coraz bardziej kompetentne systemy są precyzyjne, bezpieczne, przejrzyste, odporne, godne zaufania i lojalne.
6 wyzwań, jakim twórcy systemów AI muszą sprostać
Ten list to nie jest jedyny w ostatnim czasie głos na temat obaw, dotyczących przyszłości naszych kontaktów ze sztuczną inteligencją. Wyniki analiz, dotyczących oddziaływania sztucznej inteligencji na nasze życie i zapewnienia, że nam nie zaszkodzi opublikowała właśnie grupa naukowców pod kierunkiem badaczy z University of Central Florida w Orlando na Florydzie. Na łamach czasopisma "International Journal of Human-Computer Interaction" opisała 6 wyzwań, jakim twórcy systemów AI muszą sprostać, by zapewnić, że nasze relacje ze sztuczną inteligencją będa poprawne i bezpieczne, a jej stosowanie uczciwe i zgodne z etyką.
Po pierwsze, systemy sztucznej inteligencji powinny być nastawione na dobro człowieka, także komfort korzystania z ich systemów. Po drugie, systemy te powinny odpowiedzialnie działać na rzecz dobra ludzi i społeczeństwa, bez oglądania się na własny interes. Po trzecie, wszelkie procesy zbierania i opracowywania danych musza uwzglednić prawo do prywatności użytkowników, nie mogą się obrócić przeciwko jakimś konkretnym osobom, czy grupom. Po czwarte, systemy powinny być tak zaprojektowane, by same ujawniały, jakie działania z ich pomocą są mniej, a jakie bardziej ryzykowne. W ten sposób sam użytkownik ma mieć świadomość, czego nie powinien robić, czy wręcz robić mu nie wolno. Po piąte, musi powstać jakaś niezależna struktura zarządzająca tymi systemami, niezależnie sprawdzająca trzymanie się zasad. Po szóste wreszcie, kontakt człowieka z systemami sztucznej inteligencji musi odbywać się w sposób dostępny dla naszych zdolności poznawczych tak, by użytkownik przez cały czas był w stanie decydować o jej pracy i odpowiadać, za to, co robi.
Opisane przez nas wyzwania to wezwanie do stworzenia technologii sztucznej inteligencji skoncentrowanej na człowieku, wspierającej jego dobro, której prorytetem będzie etyka, uczciwość w działaniu. To oznacza konieczność odpowiedzialnego, nakierowanego na dobro człowieka projektowania, ochrony prywatności, stworzenia mechanizmów odpowiedniego zarządzania i nadzoru, wreszcie odniesienia się do zdolności poznawczych ludzkiego umysłu- mówi szef zespołu, prof. Ozlem Garibay UCF Department of Industrial Engineering and Management Systems.
#sztucznainteligencja #ai #chatgpt #musk
http://www.rmf24.pl/nauka/news-elon-musk-wzywa-do-wstrzymania-prac-nad-sztuczna-inteligencj,nId,6685329#crp_state=1
Andrzej_Zielinski
1
Moim zdaniem ten zwyczajnie mąci i jest szkodliwy.
Oglądałem wywiady z osobami które podpisały się pod listem. Nie mogę zaprzeczyć im ich inteligencji ale muszę wytknąć oderwanie tych ludzi od rzeczywistości i spraw przyziemnych.
1.
Jestem za. Tylko jaki człowiek określa to "dobro"? Czy dobro jednego może być złem drugiego? Gdzie jest złoty środek?
2.
"
Kto okresla "dobro społeczeństwa". Rząd. policjant, Kowalski? Czym jest to dobro? To jest pojęcie bardzo rozmyte, bardzo szerokie. Jakie są konkrety?
3.
Życzę szczęścia. Trzeba by zlikwidować firmy takie jak google, facebook, tiktok ect. Nie ma strony która by nie wymuszała na mnie próby przepchnięcia ciasteczek. Wszystko zbiera o mnie informacje mimo mojej woli. Jak zmusić firmy, korporacje i rządy do zaprzestania tego?
4.
Disclaimer w kluczowych aspektach. Nie sądzę jednak by każdy (nawet AI) przewidział wszystkie sytuacje gdy to jest niezbędne. Wiele zależy od kontekstu, a w tym nawet ludzie się gubią.
5.
O tak. Najlepiej urząd, panienka z okienka i wydawanie koncesji pozwoleń, orzeczeń. Tworzenie papieru. Zatrudnienie szwagra polityka. Wyrobienie atestu na posługiwanie się AI. Obowiązkowe szkolenia. Zdawanie sprawozdań z pracy.
ZUS, skarbówka, PZL, urzędy miejskie, ministerswo infrastruktury i komunikacji, ministerstwo cyfryzacji, ujnia europejska... jaka piękna wielka armia urzędników. Jak piękna katastrofa. Dzięki nim żyje się lepiej, wygodniej, bezpieczniej. Tak? Nie, nie sądzę.
Ten punk spodoba się politykom, na pewno będą implementować. Daję na to moje słowo.
6.
Znaczy trzeba wiedzieć co się robi. W przypadku złożoności AI jestem zdania że jest to zwyczajnie niewykonalne.
---------------------------------------------------------
Nie obawiam się AI. Bardziej boję się ludzi którzy ją tworzą.
Jednak tak jak z dostępem do broni. Ograniczenia i przepisy służą jedynie bandytom, to osoba która chce się przed nimi bronić jest stawiana w gorszej sytuacji, a tylko uzbrojona może się przed napastnikiem obronić.
Ograniczenie i kontrola AI nie sprawi, że ktoś będzie wykorzystywał ją w złym celu, to łatwy i ogólny dostęp do AI sprawi, że potencjalna ofiara będzie mieć środki do obrony.
Logika.
Dust_Mephit
2
PostironicznyPowerUser
0