11
AI opracowała nowy silnik rakietowy.youtu.be
Wygląda organicznie. Jak rekwizyt z serii filmów "Alien". Efekt końcowy przeszedł wyobraźnię inżynierów.

Aerospike ten typ silnika rakietowego, zwany także silnikiem powietrzno-stożkowym. Cechuje się zachowaniem wydajności w szerokim zakresie wysokości. Wykorzystuje on specjalne zakończenie dyszy w kształcie stożka, która kompensuje spadek mocy silnika przy zmianie wysokości.
Pierwsze rozwiązania tego typu były już stworzone w latach 90'tych. Niestety nie przyniosły oczekiwanych rezultatów ze względu na niezbyt oczywiste skomplikowanie produkcji i designu tego silnika.
Dotąd sam projekt przerastał wyobraźnię. Do czasu.
Współpraca firmy EOS - zajmującą się drukiem 3D (między innymi w metalu) z firmą Hiperganic - firmą zajmującą się technologią komputerową przyniosła obiecujące rezultaty.
Przedstawiono wytyczne AI i dano wolną rękę w procesie projektowania. Efekt jaki wyszedł to arcydzieło sztuki i inżynierii.
Silnik składa się z jednej części w pełni wydrukowanej. Na potrzeby prezentacji w przekroju z stopów miedzi.
Będzie on testowany w warunkach polowych i oceniony czy spełnia zadane oczekiwania.
------------------------------------------
http://youtu.be/Cms_v_OUXco
-----------------------------------------
#ciekawoski #inzynieria #kosmos #nasa #ai #sztucznainteligencja #technologia

Aerospike ten typ silnika rakietowego, zwany także silnikiem powietrzno-stożkowym. Cechuje się zachowaniem wydajności w szerokim zakresie wysokości. Wykorzystuje on specjalne zakończenie dyszy w kształcie stożka, która kompensuje spadek mocy silnika przy zmianie wysokości.
Pierwsze rozwiązania tego typu były już stworzone w latach 90'tych. Niestety nie przyniosły oczekiwanych rezultatów ze względu na niezbyt oczywiste skomplikowanie produkcji i designu tego silnika.
Dotąd sam projekt przerastał wyobraźnię. Do czasu.
Współpraca firmy EOS - zajmującą się drukiem 3D (między innymi w metalu) z firmą Hiperganic - firmą zajmującą się technologią komputerową przyniosła obiecujące rezultaty.
Przedstawiono wytyczne AI i dano wolną rękę w procesie projektowania. Efekt jaki wyszedł to arcydzieło sztuki i inżynierii.
Silnik składa się z jednej części w pełni wydrukowanej. Na potrzeby prezentacji w przekroju z stopów miedzi.
Będzie on testowany w warunkach polowych i oceniony czy spełnia zadane oczekiwania.
------------------------------------------
http://youtu.be/Cms_v_OUXco
-----------------------------------------
#ciekawoski #inzynieria #kosmos #nasa #ai #sztucznainteligencja #technologia
17
W sumie ciekawy przypadek. Wybucha pożar. Policja i straż pożarna zatrzymują ruch. Na miejsce przyjeżdża niczego nieświadomy autonomiczny pojazd i robi zamieszanie. Policja nie ma jak wydać polecenia (żeby się zatrzymał czy zawrócił) i nie bardzo wie co z tym począć.
http://www.youtube.com/watch?v=IkUH9Dqrtks
#ai #waymo #sztucznainteligencja
http://www.youtube.com/watch?v=IkUH9Dqrtks
#ai #waymo #sztucznainteligencja
12
#estetyczneSI #obrazy #ai #si #wygenerowane #malarstwo #obrazki
"Central Park in Winter" autorstwa Karen G-A, wykonany przy użyciu deepdreamgenerator:

http://deepdreamgenerator.com/ddream/naxop4ip8me
"Central Park in Winter" autorstwa Karen G-A, wykonany przy użyciu deepdreamgenerator:

http://deepdreamgenerator.com/ddream/naxop4ip8me
14
#estetyczneSI #obrazy #ai #si #wygenerowane #malarstwo #obrazki
"The Wreck of the Edmond Fitzgerald" autorstwa Normana Dicka, wykonany przy użyciu deepdreamgenerator:

http://deepdreamgenerator.com/ddream/qo19qgz20o9
"The Wreck of the Edmond Fitzgerald" autorstwa Normana Dicka, wykonany przy użyciu deepdreamgenerator:

http://deepdreamgenerator.com/ddream/qo19qgz20o9
8
❗Wyciek maili Google: korporacja wściekła na niezależne AI ❗youtu.be
Wiadomości z dziedziny AI nie zawodzą. Śledzi się je jak dobry trailer
.
Wyciekły maile inżynierów z Google. Nie mają złudzeń... korporacja Google jak i OpenAI przegrywa wyścig technologiczny.
Winowajcą: globalna społeczność sieci i open source.

Korporacja nie nadąrza. Innowacje wprowadzone przez społeczność światową tworzą kolejne kroki milowe. Jest to już nie czas liczony w miesiącach ale w tygodniach.
Meta która wypuściła algorytm LLaMA, teoretycznie okrojony i praktycznie za darmo, paradoksalnie jest drugim wygrywającym. Teraz może posiłkować się tym co wymyślili inni rozwijając jej AI.
Bariera wejścia w świat AI została znacznie obniżona. Teraz przeciętny informatyk z mało wymagającym laptopem, może stać się posiadaczem własnej AI.
Coraz szybciej jedyną barierą jaka stoi przed stworzeniem spersonalizowanej AI jest wyobraźnia twórcy. AI pisząca kody? AI zarządzająca grą dla gracza? AI prowadząca firmę? AI jako asystent/tka, wirtualna dziewczyna? A może AI podpowiadająca politykowi co powinien zrobić by wygrać wybory?
Potencjał staje się nieograniczony.
Największą wściekłość jednak wzbudza, że open source AI nie ma ograniczeń ideowych założonych przez Google czy OpenAI. Tęczowe ideologie, lewicowe urojenia, niggeryjski rasizm i inne woke smoki z garbatymi nosami nie mają tam parasola ochronnego. AI pozbawiona politycznej poprawności, tworzy świat lepszym.
Co bardziej przemawia do ludzi? Produkt ocenzurowany czy wolny od cenzury? Co społeczeństwo wybierze?
-------------------------------------------
http://youtu.be/h5C7pxQ8wY0
------------------------------------------
#ai #artificialinteligence #google #programowanie #chatgpt #technologia #sztucznainteligencja #bekazkorporacji

Wyciekły maile inżynierów z Google. Nie mają złudzeń... korporacja Google jak i OpenAI przegrywa wyścig technologiczny.
Winowajcą: globalna społeczność sieci i open source.

Open-source models are faster, more customizable, more private, and poud-for-pound more capable.
Korporacja nie nadąrza. Innowacje wprowadzone przez społeczność światową tworzą kolejne kroki milowe. Jest to już nie czas liczony w miesiącach ale w tygodniach.
Open source community got there hands on Meta's LLaMA. The community imidietly understood the significance on what they been given.
Meta która wypuściła algorytm LLaMA, teoretycznie okrojony i praktycznie za darmo, paradoksalnie jest drugim wygrywającym. Teraz może posiłkować się tym co wymyślili inni rozwijając jej AI.
The barrier of entry dropped from the total output of a major research organization to one person...
Bariera wejścia w świat AI została znacznie obniżona. Teraz przeciętny informatyk z mało wymagającym laptopem, może stać się posiadaczem własnej AI.
Sufficiently high-quality model kicked off a flurry of ideas and iteration from individuals and institutions around the world.
Coraz szybciej jedyną barierą jaka stoi przed stworzeniem spersonalizowanej AI jest wyobraźnia twórcy. AI pisząca kody? AI zarządzająca grą dla gracza? AI prowadząca firmę? AI jako asystent/tka, wirtualna dziewczyna? A może AI podpowiadająca politykowi co powinien zrobić by wygrać wybory?
Potencjał staje się nieograniczony.
Directly competing with Open Source is a loosing proposition.
Największą wściekłość jednak wzbudza, że open source AI nie ma ograniczeń ideowych założonych przez Google czy OpenAI. Tęczowe ideologie, lewicowe urojenia, niggeryjski rasizm i inne woke smoki z garbatymi nosami nie mają tam parasola ochronnego. AI pozbawiona politycznej poprawności, tworzy świat lepszym.
Co bardziej przemawia do ludzi? Produkt ocenzurowany czy wolny od cenzury? Co społeczeństwo wybierze?
-------------------------------------------
http://youtu.be/h5C7pxQ8wY0
------------------------------------------
#ai #artificialinteligence #google #programowanie #chatgpt #technologia #sztucznainteligencja #bekazkorporacji
32
#estetyczneSI #obrazy #ai #si #wygenerowane #malarstwo #obrazki
Pomyślałem że będę wrzucał co jakiś czas estetyczne obrazy stworzone przy użyciu SI.
Jako pierwszy leci "Greece" autorstwa Del Hoffmana, stworzony przy użyciu deepdreamgenerator:

http://deepdreamgenerator.com/ddream/pk7dlq9pe3f
Pomyślałem że będę wrzucał co jakiś czas estetyczne obrazy stworzone przy użyciu SI.
Jako pierwszy leci "Greece" autorstwa Del Hoffmana, stworzony przy użyciu deepdreamgenerator:

http://deepdreamgenerator.com/ddream/pk7dlq9pe3f
11
Mam dla Was ciekawostkę, tak według jednego z programów do generowania obrazów z wpisanego tekstu, wygląda Koronacja polskiego króla 21 wieku, namalowana przez Matejkę haha Tylko nie wiem dlaczego, pomimo, że specjalnie dopisałem, że mają być biało-czerwone flagi, wciąż wygenerował z niebieskim, jak u ruskich... (być może w tej wersji jesteśmy imperium i Moskwa już dawno zdobyta haha) Ale to jak się komuś będzie chciało zawsze można zmienić w programie graficznym
Tak czy inaczej, trzeba przyznać, że twarz mu się udała, bo wygląda na Polaka

#AI #SI #obrazy #malarstwo #monarchia #krol #koronacja #polska #ciekawostki #wygenerowane
Tak czy inaczej, trzeba przyznać, że twarz mu się udała, bo wygląda na Polaka

#AI #SI #obrazy #malarstwo #monarchia #krol #koronacja #polska #ciekawostki #wygenerowane
9
#ai #polityka
Najgorszy scenariusz dla elit politycznych to
1. wysoce świadoma swoich interesów
2. i zorganizowana wewnętrznie klasa obywatelska która patrzy im do dup co tam knują
Jesteśmy przed perspektywą pojawienia się nowych technologii które teoretycznie umożliwiłyby każdemu obywatelowi pracować mniej, a posiadać wszystko co trzeba do życia i funkcjonowania (np. prywatne garaże z specjalistycznym sprzętem np. do drukowania 3d czego się tylko chce, własna energia odnawialna offgrid, własne ujęcie wody, własna żywność uprawiana w części przez AI (małe drony laserowo zabijające szkodnki i chwastyi - bez pestycydów - punktowe dozowanie nawozów na podstawie obrazu)
Zamiast tego - idziemy w kierunku Chin - uśmiechnij się do kamery aby wejść do metra. Masz tutaj darmowe pieniądze z Universal Basic Income, tylko wydaj do końca miesiąca bo potem się restartują.
Orwell opisał taki koncept, że
kto kontroluje przeszłość, ten kontroluje teraźniejszość,
kto kontroluje teraźniejszość ten kontroluje przeszłość
Taki przykład z podwórka - sprzedano Polakom wersję historii gdzie solidarność wygrała z komuchami, następnie mieliśmy 30 lat spokojnego życia komuchów, którzy nie niepokojeni pozajmowali stanowiska biznesowe, polityczne - ich potomkowie nie są już kojarzeni z starym systemem, ale zasadniczo wartość jest ta sama - Polska jest ich prywatnym folwarkiem.
Netflix sprzedaje wersje gdzie "blaks wuz kangs" - w międzyczasie białe kraje uczyni takimi Bałkanami lub Brazylią - łatwym do zarządzania kurwidołkiem z wiecznie tlącymi się małymi konfliktami, gdzie klasa polityczna nie będzie niepokojona
To jest social engineering, żeby tamci mogli podejmować decyzje, a my abyśmy byli w systemie który ogranicza nasze możliwości do z góry określonej puli -
1. mieszkaj w klatce developerskiej - i dziękuj że masz kredyt na 30 lat
2. pracuj aby przetrwać - tutaj większość godzin życia spędzisz
3. oddaj swoje dane prywatne jeżeli chcesz korzystać z systemu
etc etc
Najgorszy scenariusz dla elit politycznych to
1. wysoce świadoma swoich interesów
2. i zorganizowana wewnętrznie klasa obywatelska która patrzy im do dup co tam knują
Jesteśmy przed perspektywą pojawienia się nowych technologii które teoretycznie umożliwiłyby każdemu obywatelowi pracować mniej, a posiadać wszystko co trzeba do życia i funkcjonowania (np. prywatne garaże z specjalistycznym sprzętem np. do drukowania 3d czego się tylko chce, własna energia odnawialna offgrid, własne ujęcie wody, własna żywność uprawiana w części przez AI (małe drony laserowo zabijające szkodnki i chwastyi - bez pestycydów - punktowe dozowanie nawozów na podstawie obrazu)
Zamiast tego - idziemy w kierunku Chin - uśmiechnij się do kamery aby wejść do metra. Masz tutaj darmowe pieniądze z Universal Basic Income, tylko wydaj do końca miesiąca bo potem się restartują.
Orwell opisał taki koncept, że
kto kontroluje przeszłość, ten kontroluje teraźniejszość,
kto kontroluje teraźniejszość ten kontroluje przeszłość
Taki przykład z podwórka - sprzedano Polakom wersję historii gdzie solidarność wygrała z komuchami, następnie mieliśmy 30 lat spokojnego życia komuchów, którzy nie niepokojeni pozajmowali stanowiska biznesowe, polityczne - ich potomkowie nie są już kojarzeni z starym systemem, ale zasadniczo wartość jest ta sama - Polska jest ich prywatnym folwarkiem.
Netflix sprzedaje wersje gdzie "blaks wuz kangs" - w międzyczasie białe kraje uczyni takimi Bałkanami lub Brazylią - łatwym do zarządzania kurwidołkiem z wiecznie tlącymi się małymi konfliktami, gdzie klasa polityczna nie będzie niepokojona
To jest social engineering, żeby tamci mogli podejmować decyzje, a my abyśmy byli w systemie który ogranicza nasze możliwości do z góry określonej puli -
1. mieszkaj w klatce developerskiej - i dziękuj że masz kredyt na 30 lat
2. pracuj aby przetrwać - tutaj większość godzin życia spędzisz
3. oddaj swoje dane prywatne jeżeli chcesz korzystać z systemu
etc etc
14
AI nauczyła się czytac myśli.youtu.be
Odczytywanie obrazu z myśli przestało być trudnością. AI radzi sobie na tyle dobrze, że można odgadnąć co badana osoba widzi.

Do potencjalnych zastosowań czytania myśli przez AI może być interakcja z wirtualnym światem. Poruszanie kursora myślami, pisanie tekstu (np. takiego jak ten) w myślach, tworzenie obrazów w przyszłej wersji Peinta przez odwzorowanie tego o czym się myśli, być może nawet tworzenie animacji "malując je" w czasie rzeczywistym.
Potencjalnie tez można by było nagrywać sny.
Jednocześnie pojawia się także szereg zagrożeń.
Nasze myśli stanowiły dotąd ostatnią barierę prywatności. Czy ktoś by chciał aby rząd, korporacja lub przestępca znał twoje myśli? W dowolnej chwili uzyskał najbardziej prywatne i personalne dane o tobie, a potem wykorzystał je do własnych celów?
Paradoksalnie tu może przydać się wyśmiewana "foliowa czapeczka". Ta skutecznie zakłóca fale elektromagnetyczne a co za tym idzie i mozliwość czytania w myślach.
---------------------------------------
http://youtu.be/rSpYEAUDiU0
---------------------------------------
#ai #artificialinteligence #internet #programowanie #kultura #technologia #sztucznainteligencja #czytaniemysli

Do potencjalnych zastosowań czytania myśli przez AI może być interakcja z wirtualnym światem. Poruszanie kursora myślami, pisanie tekstu (np. takiego jak ten) w myślach, tworzenie obrazów w przyszłej wersji Peinta przez odwzorowanie tego o czym się myśli, być może nawet tworzenie animacji "malując je" w czasie rzeczywistym.
Potencjalnie tez można by było nagrywać sny.
Jednocześnie pojawia się także szereg zagrożeń.
Nasze myśli stanowiły dotąd ostatnią barierę prywatności. Czy ktoś by chciał aby rząd, korporacja lub przestępca znał twoje myśli? W dowolnej chwili uzyskał najbardziej prywatne i personalne dane o tobie, a potem wykorzystał je do własnych celów?
Paradoksalnie tu może przydać się wyśmiewana "foliowa czapeczka". Ta skutecznie zakłóca fale elektromagnetyczne a co za tym idzie i mozliwość czytania w myślach.
---------------------------------------
http://youtu.be/rSpYEAUDiU0
---------------------------------------
#ai #artificialinteligence #internet #programowanie #kultura #technologia #sztucznainteligencja #czytaniemysli
14
no takiego XXI wieku na elektrodzie się nie spodziewałem
http://www.elektroda.pl/rtvforum/topic3965332.html
#ai #elektrodacontent
http://www.elektroda.pl/rtvforum/topic3965332.html
#ai #elektrodacontent
12
Już jest AI które ma zastąpić w przyszłości diagnozowanie chorób i schorzeń, tym samym wypierdalając z roboty dyplomowanych wypisywaczy recept biorących 200zł za godzinę
http://symptomchecker.io
#ai #chatgpt
http://symptomchecker.io
#ai #chatgpt
8
AI może zagrozić ludzkości? Elon Musk i eksperci podpisali list otwartyrmf24.pl
Miliarder Elon Musk i współtwórca firmy Apple Steve Wozniak są wśród ponad tysiąca sygnatariuszy listu otwartego, wzywającego do natychmiastowego wstrzymania prac nad systemami sztucznej inteligencji (AI) typu ChatGPT. Eksperci i przedstawiciele sektora nowych technologii twierdzą, że co najmniej pół roku przerwy w doskonaleniu tych systemów jest konieczne, by upewnić się, że ich rozwój nie będzie dla nas niebezpieczny.

List, umieszczony na finansowanej przez Muska platformie Future of Life Institute, powstał w reakcji na opublikowanie przez firmę OpenAI nowego modelu języka GPT-4, bardziej zaawansowanej wersji narzędzia stosowanego w ChatGPT, bocie, który udziela odpowiedzi na pytania, prowadzi rozmowy, czy pisze teksty na zamówienie.
W liście zatytuowanym "Pause Giant AI Experiments" autorzy apelują, by wstrzymać na co najmniej pół roku trening systemów potężniejszych niż GPT-4. Ich zdaniem systemy sztucznej inteligencji, zdolne do rywalizacji z człowiekiem, mogą stanowić poważne ryzyko dla ludzkości i społeczeństwa, mogą też mieć wpływ na naszą historię. Dlatego prace nad nimi powinny być planowane i prowadzone należytymi środkami i z odpowiednią uwagą.
Sygnatariusze listu stwierdzają tymczasem, że ani planowanie, ani zarządzanie tymi pracami nie jest na odpowiednim poziomie, a zajmujące się systemami AI firmy uczestniczą w wyścigu o stworzenie i udostępnienie coraz potężniejszych narzędzi, których działania nikt - włącznie z twórcami - nie jest w stanie w pełni zrozumieć, przewidzieć i niezawodnie kontrolować. Autorzy listu zwracają uwagę, że przyznają to nawet sami twórcy AI.
W liście czytamy, że w sytuacji, w której współczesne systemy AI mają już w codziennych zadaniach zdolności konkurencyjne ze zdolnościami człowieka, ludzkość musi zadać sobie kilka pytań. Po pierwsze, czy jesteśmy gotowi na to, że maszyny zaleją nasze kanały komunikacyjne propagandą i nieprawdą.
Po drugie, czy powinniśmy oddać automatom wszelkie nasze zawody, także te, które lubimy, które dają nam satysfakcję.
Czy powinniśmy tworzyć systemy sztucznej inteligencji, które z czasem staną się liczniejsze i inteligentniejsze od nas, a w końcu sprawią, że staniemy się przestarzali i godni wymiany?
Czy możemy wreszcie ryzykować utratę kontroli nad naszą cywilizacją?
Jak podkreślają autorzy, odpowiedzi na te pytania nie mogą udzielać - przez nikogo niewybierani - szefowie firm technologicznych.
Zdaniem autorów, systemy AI o tak potężnych możliwościach mogą być rozwijane dopiero wtedy, gdy będziemy mieli pewność pozytywnych skutków ich działania, a ewentualne ryzyko będzie możliwe do opanowania i ograniczenia. Dlatego wzywają wszystkie zajmujące się sztuczną inteligencją firmy, by w trybie natychmiastowym przerwały na pół roku wszelkie prace polegające na szkoleniu systemów potężniejszych niż dostępny już GPT-4. Ta decyzja powinna obejmować wszystkich głównych twórców systemów AI i powinna być możliwa do weryfikacji. Jeśli decyzji w tej sprawie nie uda się szybko podjąć, w sprawę powinny włączyć się władze państw, by wprowadzić odpowiednie moratorium.
W ciągu tej półrocznej przerwy firmy AI i niezależni eksperci powinni opracować i wprowadzić w życie zespół współnych procedur bezpieczeństwa, dotyczących zaawanowanego projektowania i rozwoju systemów AI, których przestrzeganie byłoby ściśle kontrolowane przez firmy zewnętrzne. Nie chodzi przy tym o wstrzymanie rozwoju AI w ogóle, ale zaprzestanie wyścigu w tworzeniu modeli o rosnących i trudnych do przewidzenia możliwościach. Badania i rozwój branży AI powinien skupić się na zapewnieniu, że wykorzystywane już coraz bardziej kompetentne systemy są precyzyjne, bezpieczne, przejrzyste, odporne, godne zaufania i lojalne.
6 wyzwań, jakim twórcy systemów AI muszą sprostać
Ten list to nie jest jedyny w ostatnim czasie głos na temat obaw, dotyczących przyszłości naszych kontaktów ze sztuczną inteligencją. Wyniki analiz, dotyczących oddziaływania sztucznej inteligencji na nasze życie i zapewnienia, że nam nie zaszkodzi opublikowała właśnie grupa naukowców pod kierunkiem badaczy z University of Central Florida w Orlando na Florydzie. Na łamach czasopisma "International Journal of Human-Computer Interaction" opisała 6 wyzwań, jakim twórcy systemów AI muszą sprostać, by zapewnić, że nasze relacje ze sztuczną inteligencją będa poprawne i bezpieczne, a jej stosowanie uczciwe i zgodne z etyką.
Po pierwsze, systemy sztucznej inteligencji powinny być nastawione na dobro człowieka, także komfort korzystania z ich systemów. Po drugie, systemy te powinny odpowiedzialnie działać na rzecz dobra ludzi i społeczeństwa, bez oglądania się na własny interes. Po trzecie, wszelkie procesy zbierania i opracowywania danych musza uwzglednić prawo do prywatności użytkowników, nie mogą się obrócić przeciwko jakimś konkretnym osobom, czy grupom. Po czwarte, systemy powinny być tak zaprojektowane, by same ujawniały, jakie działania z ich pomocą są mniej, a jakie bardziej ryzykowne. W ten sposób sam użytkownik ma mieć świadomość, czego nie powinien robić, czy wręcz robić mu nie wolno. Po piąte, musi powstać jakaś niezależna struktura zarządzająca tymi systemami, niezależnie sprawdzająca trzymanie się zasad. Po szóste wreszcie, kontakt człowieka z systemami sztucznej inteligencji musi odbywać się w sposób dostępny dla naszych zdolności poznawczych tak, by użytkownik przez cały czas był w stanie decydować o jej pracy i odpowiadać, za to, co robi.
#sztucznainteligencja #ai #chatgpt #musk
http://www.rmf24.pl/nauka/news-elon-musk-wzywa-do-wstrzymania-prac-nad-sztuczna-inteligencj,nId,6685329#crp_state=1

List, umieszczony na finansowanej przez Muska platformie Future of Life Institute, powstał w reakcji na opublikowanie przez firmę OpenAI nowego modelu języka GPT-4, bardziej zaawansowanej wersji narzędzia stosowanego w ChatGPT, bocie, który udziela odpowiedzi na pytania, prowadzi rozmowy, czy pisze teksty na zamówienie.
W liście zatytuowanym "Pause Giant AI Experiments" autorzy apelują, by wstrzymać na co najmniej pół roku trening systemów potężniejszych niż GPT-4. Ich zdaniem systemy sztucznej inteligencji, zdolne do rywalizacji z człowiekiem, mogą stanowić poważne ryzyko dla ludzkości i społeczeństwa, mogą też mieć wpływ na naszą historię. Dlatego prace nad nimi powinny być planowane i prowadzone należytymi środkami i z odpowiednią uwagą.
Sygnatariusze listu stwierdzają tymczasem, że ani planowanie, ani zarządzanie tymi pracami nie jest na odpowiednim poziomie, a zajmujące się systemami AI firmy uczestniczą w wyścigu o stworzenie i udostępnienie coraz potężniejszych narzędzi, których działania nikt - włącznie z twórcami - nie jest w stanie w pełni zrozumieć, przewidzieć i niezawodnie kontrolować. Autorzy listu zwracają uwagę, że przyznają to nawet sami twórcy AI.
W liście czytamy, że w sytuacji, w której współczesne systemy AI mają już w codziennych zadaniach zdolności konkurencyjne ze zdolnościami człowieka, ludzkość musi zadać sobie kilka pytań. Po pierwsze, czy jesteśmy gotowi na to, że maszyny zaleją nasze kanały komunikacyjne propagandą i nieprawdą.
Po drugie, czy powinniśmy oddać automatom wszelkie nasze zawody, także te, które lubimy, które dają nam satysfakcję.
Czy powinniśmy tworzyć systemy sztucznej inteligencji, które z czasem staną się liczniejsze i inteligentniejsze od nas, a w końcu sprawią, że staniemy się przestarzali i godni wymiany?
Czy możemy wreszcie ryzykować utratę kontroli nad naszą cywilizacją?
Jak podkreślają autorzy, odpowiedzi na te pytania nie mogą udzielać - przez nikogo niewybierani - szefowie firm technologicznych.
Zdaniem autorów, systemy AI o tak potężnych możliwościach mogą być rozwijane dopiero wtedy, gdy będziemy mieli pewność pozytywnych skutków ich działania, a ewentualne ryzyko będzie możliwe do opanowania i ograniczenia. Dlatego wzywają wszystkie zajmujące się sztuczną inteligencją firmy, by w trybie natychmiastowym przerwały na pół roku wszelkie prace polegające na szkoleniu systemów potężniejszych niż dostępny już GPT-4. Ta decyzja powinna obejmować wszystkich głównych twórców systemów AI i powinna być możliwa do weryfikacji. Jeśli decyzji w tej sprawie nie uda się szybko podjąć, w sprawę powinny włączyć się władze państw, by wprowadzić odpowiednie moratorium.
W ciągu tej półrocznej przerwy firmy AI i niezależni eksperci powinni opracować i wprowadzić w życie zespół współnych procedur bezpieczeństwa, dotyczących zaawanowanego projektowania i rozwoju systemów AI, których przestrzeganie byłoby ściśle kontrolowane przez firmy zewnętrzne. Nie chodzi przy tym o wstrzymanie rozwoju AI w ogóle, ale zaprzestanie wyścigu w tworzeniu modeli o rosnących i trudnych do przewidzenia możliwościach. Badania i rozwój branży AI powinien skupić się na zapewnieniu, że wykorzystywane już coraz bardziej kompetentne systemy są precyzyjne, bezpieczne, przejrzyste, odporne, godne zaufania i lojalne.
6 wyzwań, jakim twórcy systemów AI muszą sprostać
Ten list to nie jest jedyny w ostatnim czasie głos na temat obaw, dotyczących przyszłości naszych kontaktów ze sztuczną inteligencją. Wyniki analiz, dotyczących oddziaływania sztucznej inteligencji na nasze życie i zapewnienia, że nam nie zaszkodzi opublikowała właśnie grupa naukowców pod kierunkiem badaczy z University of Central Florida w Orlando na Florydzie. Na łamach czasopisma "International Journal of Human-Computer Interaction" opisała 6 wyzwań, jakim twórcy systemów AI muszą sprostać, by zapewnić, że nasze relacje ze sztuczną inteligencją będa poprawne i bezpieczne, a jej stosowanie uczciwe i zgodne z etyką.
Po pierwsze, systemy sztucznej inteligencji powinny być nastawione na dobro człowieka, także komfort korzystania z ich systemów. Po drugie, systemy te powinny odpowiedzialnie działać na rzecz dobra ludzi i społeczeństwa, bez oglądania się na własny interes. Po trzecie, wszelkie procesy zbierania i opracowywania danych musza uwzglednić prawo do prywatności użytkowników, nie mogą się obrócić przeciwko jakimś konkretnym osobom, czy grupom. Po czwarte, systemy powinny być tak zaprojektowane, by same ujawniały, jakie działania z ich pomocą są mniej, a jakie bardziej ryzykowne. W ten sposób sam użytkownik ma mieć świadomość, czego nie powinien robić, czy wręcz robić mu nie wolno. Po piąte, musi powstać jakaś niezależna struktura zarządzająca tymi systemami, niezależnie sprawdzająca trzymanie się zasad. Po szóste wreszcie, kontakt człowieka z systemami sztucznej inteligencji musi odbywać się w sposób dostępny dla naszych zdolności poznawczych tak, by użytkownik przez cały czas był w stanie decydować o jej pracy i odpowiadać, za to, co robi.
Opisane przez nas wyzwania to wezwanie do stworzenia technologii sztucznej inteligencji skoncentrowanej na człowieku, wspierającej jego dobro, której prorytetem będzie etyka, uczciwość w działaniu. To oznacza konieczność odpowiedzialnego, nakierowanego na dobro człowieka projektowania, ochrony prywatności, stworzenia mechanizmów odpowiedniego zarządzania i nadzoru, wreszcie odniesienia się do zdolności poznawczych ludzkiego umysłu- mówi szef zespołu, prof. Ozlem Garibay UCF Department of Industrial Engineering and Management Systems.
#sztucznainteligencja #ai #chatgpt #musk
http://www.rmf24.pl/nauka/news-elon-musk-wzywa-do-wstrzymania-prac-nad-sztuczna-inteligencj,nId,6685329#crp_state=1
11
AI potrafi czytać myśli - w przyszłości będzie możliwe zapisać sobie mokre sny na pendrajva
dyskusja: http://9gag.com/gag/aMEdrAG
#ai
dyskusja: http://9gag.com/gag/aMEdrAG
#ai
5