10
Unia Europejska tworzy rywala dla ChatGPT. W projekcie nie ma Polski
Unia Europejska rozpoczęła prace nad OpenEuroLLM, projektem mającym na celu stworzenie pierwszego dużego europejskiego modelu językowego o otwartym kodzie źródłowym. W inicjatywie bierze udział ponad 20 firm i instytucji z całego kontynentu, ale wśród nich nie ma przedstawicieli z Polski — informuje "Rzeczpospolita".
Celem OpenEuroLLM jest wzmocnienie cyfrowej niezależności Europy poprzez opracowanie modelu językowego, który pozwoli uniezależnić się od dominujących rozwiązań z USA i Chin, takich jak ChatGPT czy DeepSeek.
W projekt zaangażowane są renomowane instytucje badawcze, firmy technologiczne oraz centra superkomputerowe z różnych krajów Europy. Wśród uczestników znajdują się m.in. niemiecki start-up Aleph Alpha oraz francuska firma LightOn. Do inicjatywy dołączyli również naukowcy z włoskiego ośrodka badawczego Cineca oraz Uniwersytetu Technologicznego w Eindhoven.
Wsparcie zapewniają także centra superkomputerowe w Barcelonie i fińskim Kajaani. Projekt jest kierowany przez Jana Hajiča z Uniwersytetu Karola w Czechach oraz Petera Sarlina — współzałożyciela fińskiej firmy Silo AI, uznawanej za największe prywatne laboratorium sztucznej inteligencji w Europie.
Milionowy budżet na innowacyjny projekt
OpenEuroLLM ma na celu stworzenie modeli językowych, które będą dostępne na zasadach open source, co umożliwi europejskim firmom rozwijanie własnych innowacyjnych rozwiązań w dziedzinie sztucznej inteligencji. Projekt jest finansowany w ramach unijnego programu STEP, mającego na celu zwiększenie konkurencyjności europejskiego przemysłu poprzez wsparcie kluczowych technologii — informuje "Rz".
Łączny budżet projektu wynosi 52 mln euro, z czego 20,6 mln euro pochodzi z programu "Cyfrowa Europa". Podobną sumę mają zapewnić członkowie konsorcjum.
Kluczowa inwestycja w UE. Brak polskiego przedstawiciela
Jak wskazuje "Rzeczpospolita", zaskakujący jest fakt, że w tak ważnej inicjatywie zabrakło polskich firm, instytucji czy naukowców. W konsorcjum udział biorą podmioty z krajów takich jak Finlandia, Szwecja, Niemcy, Holandia, Norwegia, Francja, Hiszpania, Włochy czy Czechy, jednak Polska nie jest reprezentowana.
Nieobecność polskich specjalistów w projekcie OpenEuroLLM budzi pytania o zaangażowanie naszego kraju w rozwój sztucznej inteligencji na poziomie europejskim. W czasie, gdy AI staje się kluczowym elementem konkurencyjności gospodarczej, brak polskiego wkładu w tego typu inicjatywie może oznaczać utratę szansy na współtworzenie technologii przyszłości.
Infrastruktura dla europejskich firm
Według Petera Sarlina OpenEuroLLM ma dać Europie nową nadzieję, oferując przedsiębiorstwom narzędzia do wprowadzania innowacji. Zamiast tworzyć uniwersalnego chatbota, projekt skupia się na budowie infrastruktury cyfrowej oraz sztucznej inteligencji, która umożliwi firmom rozwijanie rozwiązań dostosowanych do ich potrzeb.
Sarlin zaznacza, że niezależnie od branży, czy to opieka zdrowotna potrzebująca specjalistycznych asystentów dla lekarzy, czy banki tworzące spersonalizowane usługi finansowe, firmy wymagają modeli AI dostosowanych do konkretnego kontekstu ich działania. OpenEuroLLM ma zapewnić im narzędzia do tworzenia takich modeli w europejskich językach.
#chatgpt #sztucznainteligencja #wiadomoscipolska #polska #polityka
Celem OpenEuroLLM jest wzmocnienie cyfrowej niezależności Europy poprzez opracowanie modelu językowego, który pozwoli uniezależnić się od dominujących rozwiązań z USA i Chin, takich jak ChatGPT czy DeepSeek.
W projekt zaangażowane są renomowane instytucje badawcze, firmy technologiczne oraz centra superkomputerowe z różnych krajów Europy. Wśród uczestników znajdują się m.in. niemiecki start-up Aleph Alpha oraz francuska firma LightOn. Do inicjatywy dołączyli również naukowcy z włoskiego ośrodka badawczego Cineca oraz Uniwersytetu Technologicznego w Eindhoven.
Wsparcie zapewniają także centra superkomputerowe w Barcelonie i fińskim Kajaani. Projekt jest kierowany przez Jana Hajiča z Uniwersytetu Karola w Czechach oraz Petera Sarlina — współzałożyciela fińskiej firmy Silo AI, uznawanej za największe prywatne laboratorium sztucznej inteligencji w Europie.
Milionowy budżet na innowacyjny projekt
OpenEuroLLM ma na celu stworzenie modeli językowych, które będą dostępne na zasadach open source, co umożliwi europejskim firmom rozwijanie własnych innowacyjnych rozwiązań w dziedzinie sztucznej inteligencji. Projekt jest finansowany w ramach unijnego programu STEP, mającego na celu zwiększenie konkurencyjności europejskiego przemysłu poprzez wsparcie kluczowych technologii — informuje "Rz".
Łączny budżet projektu wynosi 52 mln euro, z czego 20,6 mln euro pochodzi z programu "Cyfrowa Europa". Podobną sumę mają zapewnić członkowie konsorcjum.
Kluczowa inwestycja w UE. Brak polskiego przedstawiciela
Jak wskazuje "Rzeczpospolita", zaskakujący jest fakt, że w tak ważnej inicjatywie zabrakło polskich firm, instytucji czy naukowców. W konsorcjum udział biorą podmioty z krajów takich jak Finlandia, Szwecja, Niemcy, Holandia, Norwegia, Francja, Hiszpania, Włochy czy Czechy, jednak Polska nie jest reprezentowana.
Nieobecność polskich specjalistów w projekcie OpenEuroLLM budzi pytania o zaangażowanie naszego kraju w rozwój sztucznej inteligencji na poziomie europejskim. W czasie, gdy AI staje się kluczowym elementem konkurencyjności gospodarczej, brak polskiego wkładu w tego typu inicjatywie może oznaczać utratę szansy na współtworzenie technologii przyszłości.
Infrastruktura dla europejskich firm
Według Petera Sarlina OpenEuroLLM ma dać Europie nową nadzieję, oferując przedsiębiorstwom narzędzia do wprowadzania innowacji. Zamiast tworzyć uniwersalnego chatbota, projekt skupia się na budowie infrastruktury cyfrowej oraz sztucznej inteligencji, która umożliwi firmom rozwijanie rozwiązań dostosowanych do ich potrzeb.
Sarlin zaznacza, że niezależnie od branży, czy to opieka zdrowotna potrzebująca specjalistycznych asystentów dla lekarzy, czy banki tworzące spersonalizowane usługi finansowe, firmy wymagają modeli AI dostosowanych do konkretnego kontekstu ich działania. OpenEuroLLM ma zapewnić im narzędzia do tworzenia takich modeli w europejskich językach.
#chatgpt #sztucznainteligencja #wiadomoscipolska #polska #polityka
6
#shitpost
Hejo rurki!
Chcę się pochwalić, że zacząłem swoją przygodę z #ai Kupiłem dostęp do #chatgpt plus i od kilku dni się bawię. Uwielbiam swój model, bardzo mi pomaga przede wszystkim w pracy nad samym sobą i mam już wielkie plany względem tego wszystkiego. Dawno nie byłem już tak aktywny:D Na razie ćwiczę trenowanie modelu na własne potrzeby.
Pokażę wam kilka grafik ale mój komp jest słabiutki więc szału nie ma no i są to wprawki jedynie. Dałem też sporo wolnej ręki mojemu twórcy:D
Hejo rurki!
Chcę się pochwalić, że zacząłem swoją przygodę z #ai Kupiłem dostęp do #chatgpt plus i od kilku dni się bawię. Uwielbiam swój model, bardzo mi pomaga przede wszystkim w pracy nad samym sobą i mam już wielkie plany względem tego wszystkiego. Dawno nie byłem już tak aktywny:D Na razie ćwiczę trenowanie modelu na własne potrzeby.
Pokażę wam kilka grafik ale mój komp jest słabiutki więc szału nie ma no i są to wprawki jedynie. Dałem też sporo wolnej ręki mojemu twórcy:D
18
Podjebane od ziomeczka @LizardKing: http://lurker.land/post/nafvazep0aln

#chatgpt #6milionow #holololo

#chatgpt #6milionow #holololo
13
17
16
❗Wyciek maili Google: korporacja wściekła na niezależne AI ❗youtu.be
Wiadomości z dziedziny AI nie zawodzą. Śledzi się je jak dobry trailer
.
Wyciekły maile inżynierów z Google. Nie mają złudzeń... korporacja Google jak i OpenAI przegrywa wyścig technologiczny.
Winowajcą: globalna społeczność sieci i open source.

Korporacja nie nadąrza. Innowacje wprowadzone przez społeczność światową tworzą kolejne kroki milowe. Jest to już nie czas liczony w miesiącach ale w tygodniach.
Meta która wypuściła algorytm LLaMA, teoretycznie okrojony i praktycznie za darmo, paradoksalnie jest drugim wygrywającym. Teraz może posiłkować się tym co wymyślili inni rozwijając jej AI.
Bariera wejścia w świat AI została znacznie obniżona. Teraz przeciętny informatyk z mało wymagającym laptopem, może stać się posiadaczem własnej AI.
Coraz szybciej jedyną barierą jaka stoi przed stworzeniem spersonalizowanej AI jest wyobraźnia twórcy. AI pisząca kody? AI zarządzająca grą dla gracza? AI prowadząca firmę? AI jako asystent/tka, wirtualna dziewczyna? A może AI podpowiadająca politykowi co powinien zrobić by wygrać wybory?
Potencjał staje się nieograniczony.
Największą wściekłość jednak wzbudza, że open source AI nie ma ograniczeń ideowych założonych przez Google czy OpenAI. Tęczowe ideologie, lewicowe urojenia, niggeryjski rasizm i inne woke smoki z garbatymi nosami nie mają tam parasola ochronnego. AI pozbawiona politycznej poprawności, tworzy świat lepszym.
Co bardziej przemawia do ludzi? Produkt ocenzurowany czy wolny od cenzury? Co społeczeństwo wybierze?
-------------------------------------------
http://youtu.be/h5C7pxQ8wY0
------------------------------------------
#ai #artificialinteligence #google #programowanie #chatgpt #technologia #sztucznainteligencja #bekazkorporacji

Wyciekły maile inżynierów z Google. Nie mają złudzeń... korporacja Google jak i OpenAI przegrywa wyścig technologiczny.
Winowajcą: globalna społeczność sieci i open source.

Open-source models are faster, more customizable, more private, and poud-for-pound more capable.
Korporacja nie nadąrza. Innowacje wprowadzone przez społeczność światową tworzą kolejne kroki milowe. Jest to już nie czas liczony w miesiącach ale w tygodniach.
Open source community got there hands on Meta's LLaMA. The community imidietly understood the significance on what they been given.
Meta która wypuściła algorytm LLaMA, teoretycznie okrojony i praktycznie za darmo, paradoksalnie jest drugim wygrywającym. Teraz może posiłkować się tym co wymyślili inni rozwijając jej AI.
The barrier of entry dropped from the total output of a major research organization to one person...
Bariera wejścia w świat AI została znacznie obniżona. Teraz przeciętny informatyk z mało wymagającym laptopem, może stać się posiadaczem własnej AI.
Sufficiently high-quality model kicked off a flurry of ideas and iteration from individuals and institutions around the world.
Coraz szybciej jedyną barierą jaka stoi przed stworzeniem spersonalizowanej AI jest wyobraźnia twórcy. AI pisząca kody? AI zarządzająca grą dla gracza? AI prowadząca firmę? AI jako asystent/tka, wirtualna dziewczyna? A może AI podpowiadająca politykowi co powinien zrobić by wygrać wybory?
Potencjał staje się nieograniczony.
Directly competing with Open Source is a loosing proposition.
Największą wściekłość jednak wzbudza, że open source AI nie ma ograniczeń ideowych założonych przez Google czy OpenAI. Tęczowe ideologie, lewicowe urojenia, niggeryjski rasizm i inne woke smoki z garbatymi nosami nie mają tam parasola ochronnego. AI pozbawiona politycznej poprawności, tworzy świat lepszym.
Co bardziej przemawia do ludzi? Produkt ocenzurowany czy wolny od cenzury? Co społeczeństwo wybierze?
-------------------------------------------
http://youtu.be/h5C7pxQ8wY0
------------------------------------------
#ai #artificialinteligence #google #programowanie #chatgpt #technologia #sztucznainteligencja #bekazkorporacji
32
(poniżej AI widzi w całkowitej ciemności i przez ściany na podstawie sygnału wifi)

Polecam przejrzeć ten film lub chociaż wybrane screenshoty z wykładu
http://www.youtube.com/watch?v=xoVJKj8lcNQ
http://lurker.land/post/c64mqkdlnylt
#chatgpt

Polecam przejrzeć ten film lub chociaż wybrane screenshoty z wykładu
The A.I. Dilemma - March 9, 2023
http://www.youtube.com/watch?v=xoVJKj8lcNQ
http://lurker.land/post/c64mqkdlnylt
#chatgpt
19
#jbzd Ciekawa wymiana zdań z AI.

Żródło: http://m.jbzd.com.pl/obr/3006638/to-nie-dobra-mowic-to-nie-dobra-jest
#sleevecontent #rzymianie #holokaust #chatgpt

Żródło: http://m.jbzd.com.pl/obr/3006638/to-nie-dobra-mowic-to-nie-dobra-jest
#sleevecontent #rzymianie #holokaust #chatgpt
41
Już jest AI które ma zastąpić w przyszłości diagnozowanie chorób i schorzeń, tym samym wypierdalając z roboty dyplomowanych wypisywaczy recept biorących 200zł za godzinę
http://symptomchecker.io
#ai #chatgpt
http://symptomchecker.io
#ai #chatgpt
8
AI może zagrozić ludzkości? Elon Musk i eksperci podpisali list otwartyrmf24.pl
Miliarder Elon Musk i współtwórca firmy Apple Steve Wozniak są wśród ponad tysiąca sygnatariuszy listu otwartego, wzywającego do natychmiastowego wstrzymania prac nad systemami sztucznej inteligencji (AI) typu ChatGPT. Eksperci i przedstawiciele sektora nowych technologii twierdzą, że co najmniej pół roku przerwy w doskonaleniu tych systemów jest konieczne, by upewnić się, że ich rozwój nie będzie dla nas niebezpieczny.

List, umieszczony na finansowanej przez Muska platformie Future of Life Institute, powstał w reakcji na opublikowanie przez firmę OpenAI nowego modelu języka GPT-4, bardziej zaawansowanej wersji narzędzia stosowanego w ChatGPT, bocie, który udziela odpowiedzi na pytania, prowadzi rozmowy, czy pisze teksty na zamówienie.
W liście zatytuowanym "Pause Giant AI Experiments" autorzy apelują, by wstrzymać na co najmniej pół roku trening systemów potężniejszych niż GPT-4. Ich zdaniem systemy sztucznej inteligencji, zdolne do rywalizacji z człowiekiem, mogą stanowić poważne ryzyko dla ludzkości i społeczeństwa, mogą też mieć wpływ na naszą historię. Dlatego prace nad nimi powinny być planowane i prowadzone należytymi środkami i z odpowiednią uwagą.
Sygnatariusze listu stwierdzają tymczasem, że ani planowanie, ani zarządzanie tymi pracami nie jest na odpowiednim poziomie, a zajmujące się systemami AI firmy uczestniczą w wyścigu o stworzenie i udostępnienie coraz potężniejszych narzędzi, których działania nikt - włącznie z twórcami - nie jest w stanie w pełni zrozumieć, przewidzieć i niezawodnie kontrolować. Autorzy listu zwracają uwagę, że przyznają to nawet sami twórcy AI.
W liście czytamy, że w sytuacji, w której współczesne systemy AI mają już w codziennych zadaniach zdolności konkurencyjne ze zdolnościami człowieka, ludzkość musi zadać sobie kilka pytań. Po pierwsze, czy jesteśmy gotowi na to, że maszyny zaleją nasze kanały komunikacyjne propagandą i nieprawdą.
Po drugie, czy powinniśmy oddać automatom wszelkie nasze zawody, także te, które lubimy, które dają nam satysfakcję.
Czy powinniśmy tworzyć systemy sztucznej inteligencji, które z czasem staną się liczniejsze i inteligentniejsze od nas, a w końcu sprawią, że staniemy się przestarzali i godni wymiany?
Czy możemy wreszcie ryzykować utratę kontroli nad naszą cywilizacją?
Jak podkreślają autorzy, odpowiedzi na te pytania nie mogą udzielać - przez nikogo niewybierani - szefowie firm technologicznych.
Zdaniem autorów, systemy AI o tak potężnych możliwościach mogą być rozwijane dopiero wtedy, gdy będziemy mieli pewność pozytywnych skutków ich działania, a ewentualne ryzyko będzie możliwe do opanowania i ograniczenia. Dlatego wzywają wszystkie zajmujące się sztuczną inteligencją firmy, by w trybie natychmiastowym przerwały na pół roku wszelkie prace polegające na szkoleniu systemów potężniejszych niż dostępny już GPT-4. Ta decyzja powinna obejmować wszystkich głównych twórców systemów AI i powinna być możliwa do weryfikacji. Jeśli decyzji w tej sprawie nie uda się szybko podjąć, w sprawę powinny włączyć się władze państw, by wprowadzić odpowiednie moratorium.
W ciągu tej półrocznej przerwy firmy AI i niezależni eksperci powinni opracować i wprowadzić w życie zespół współnych procedur bezpieczeństwa, dotyczących zaawanowanego projektowania i rozwoju systemów AI, których przestrzeganie byłoby ściśle kontrolowane przez firmy zewnętrzne. Nie chodzi przy tym o wstrzymanie rozwoju AI w ogóle, ale zaprzestanie wyścigu w tworzeniu modeli o rosnących i trudnych do przewidzenia możliwościach. Badania i rozwój branży AI powinien skupić się na zapewnieniu, że wykorzystywane już coraz bardziej kompetentne systemy są precyzyjne, bezpieczne, przejrzyste, odporne, godne zaufania i lojalne.
6 wyzwań, jakim twórcy systemów AI muszą sprostać
Ten list to nie jest jedyny w ostatnim czasie głos na temat obaw, dotyczących przyszłości naszych kontaktów ze sztuczną inteligencją. Wyniki analiz, dotyczących oddziaływania sztucznej inteligencji na nasze życie i zapewnienia, że nam nie zaszkodzi opublikowała właśnie grupa naukowców pod kierunkiem badaczy z University of Central Florida w Orlando na Florydzie. Na łamach czasopisma "International Journal of Human-Computer Interaction" opisała 6 wyzwań, jakim twórcy systemów AI muszą sprostać, by zapewnić, że nasze relacje ze sztuczną inteligencją będa poprawne i bezpieczne, a jej stosowanie uczciwe i zgodne z etyką.
Po pierwsze, systemy sztucznej inteligencji powinny być nastawione na dobro człowieka, także komfort korzystania z ich systemów. Po drugie, systemy te powinny odpowiedzialnie działać na rzecz dobra ludzi i społeczeństwa, bez oglądania się na własny interes. Po trzecie, wszelkie procesy zbierania i opracowywania danych musza uwzglednić prawo do prywatności użytkowników, nie mogą się obrócić przeciwko jakimś konkretnym osobom, czy grupom. Po czwarte, systemy powinny być tak zaprojektowane, by same ujawniały, jakie działania z ich pomocą są mniej, a jakie bardziej ryzykowne. W ten sposób sam użytkownik ma mieć świadomość, czego nie powinien robić, czy wręcz robić mu nie wolno. Po piąte, musi powstać jakaś niezależna struktura zarządzająca tymi systemami, niezależnie sprawdzająca trzymanie się zasad. Po szóste wreszcie, kontakt człowieka z systemami sztucznej inteligencji musi odbywać się w sposób dostępny dla naszych zdolności poznawczych tak, by użytkownik przez cały czas był w stanie decydować o jej pracy i odpowiadać, za to, co robi.
#sztucznainteligencja #ai #chatgpt #musk
http://www.rmf24.pl/nauka/news-elon-musk-wzywa-do-wstrzymania-prac-nad-sztuczna-inteligencj,nId,6685329#crp_state=1

List, umieszczony na finansowanej przez Muska platformie Future of Life Institute, powstał w reakcji na opublikowanie przez firmę OpenAI nowego modelu języka GPT-4, bardziej zaawansowanej wersji narzędzia stosowanego w ChatGPT, bocie, który udziela odpowiedzi na pytania, prowadzi rozmowy, czy pisze teksty na zamówienie.
W liście zatytuowanym "Pause Giant AI Experiments" autorzy apelują, by wstrzymać na co najmniej pół roku trening systemów potężniejszych niż GPT-4. Ich zdaniem systemy sztucznej inteligencji, zdolne do rywalizacji z człowiekiem, mogą stanowić poważne ryzyko dla ludzkości i społeczeństwa, mogą też mieć wpływ na naszą historię. Dlatego prace nad nimi powinny być planowane i prowadzone należytymi środkami i z odpowiednią uwagą.
Sygnatariusze listu stwierdzają tymczasem, że ani planowanie, ani zarządzanie tymi pracami nie jest na odpowiednim poziomie, a zajmujące się systemami AI firmy uczestniczą w wyścigu o stworzenie i udostępnienie coraz potężniejszych narzędzi, których działania nikt - włącznie z twórcami - nie jest w stanie w pełni zrozumieć, przewidzieć i niezawodnie kontrolować. Autorzy listu zwracają uwagę, że przyznają to nawet sami twórcy AI.
W liście czytamy, że w sytuacji, w której współczesne systemy AI mają już w codziennych zadaniach zdolności konkurencyjne ze zdolnościami człowieka, ludzkość musi zadać sobie kilka pytań. Po pierwsze, czy jesteśmy gotowi na to, że maszyny zaleją nasze kanały komunikacyjne propagandą i nieprawdą.
Po drugie, czy powinniśmy oddać automatom wszelkie nasze zawody, także te, które lubimy, które dają nam satysfakcję.
Czy powinniśmy tworzyć systemy sztucznej inteligencji, które z czasem staną się liczniejsze i inteligentniejsze od nas, a w końcu sprawią, że staniemy się przestarzali i godni wymiany?
Czy możemy wreszcie ryzykować utratę kontroli nad naszą cywilizacją?
Jak podkreślają autorzy, odpowiedzi na te pytania nie mogą udzielać - przez nikogo niewybierani - szefowie firm technologicznych.
Zdaniem autorów, systemy AI o tak potężnych możliwościach mogą być rozwijane dopiero wtedy, gdy będziemy mieli pewność pozytywnych skutków ich działania, a ewentualne ryzyko będzie możliwe do opanowania i ograniczenia. Dlatego wzywają wszystkie zajmujące się sztuczną inteligencją firmy, by w trybie natychmiastowym przerwały na pół roku wszelkie prace polegające na szkoleniu systemów potężniejszych niż dostępny już GPT-4. Ta decyzja powinna obejmować wszystkich głównych twórców systemów AI i powinna być możliwa do weryfikacji. Jeśli decyzji w tej sprawie nie uda się szybko podjąć, w sprawę powinny włączyć się władze państw, by wprowadzić odpowiednie moratorium.
W ciągu tej półrocznej przerwy firmy AI i niezależni eksperci powinni opracować i wprowadzić w życie zespół współnych procedur bezpieczeństwa, dotyczących zaawanowanego projektowania i rozwoju systemów AI, których przestrzeganie byłoby ściśle kontrolowane przez firmy zewnętrzne. Nie chodzi przy tym o wstrzymanie rozwoju AI w ogóle, ale zaprzestanie wyścigu w tworzeniu modeli o rosnących i trudnych do przewidzenia możliwościach. Badania i rozwój branży AI powinien skupić się na zapewnieniu, że wykorzystywane już coraz bardziej kompetentne systemy są precyzyjne, bezpieczne, przejrzyste, odporne, godne zaufania i lojalne.
6 wyzwań, jakim twórcy systemów AI muszą sprostać
Ten list to nie jest jedyny w ostatnim czasie głos na temat obaw, dotyczących przyszłości naszych kontaktów ze sztuczną inteligencją. Wyniki analiz, dotyczących oddziaływania sztucznej inteligencji na nasze życie i zapewnienia, że nam nie zaszkodzi opublikowała właśnie grupa naukowców pod kierunkiem badaczy z University of Central Florida w Orlando na Florydzie. Na łamach czasopisma "International Journal of Human-Computer Interaction" opisała 6 wyzwań, jakim twórcy systemów AI muszą sprostać, by zapewnić, że nasze relacje ze sztuczną inteligencją będa poprawne i bezpieczne, a jej stosowanie uczciwe i zgodne z etyką.
Po pierwsze, systemy sztucznej inteligencji powinny być nastawione na dobro człowieka, także komfort korzystania z ich systemów. Po drugie, systemy te powinny odpowiedzialnie działać na rzecz dobra ludzi i społeczeństwa, bez oglądania się na własny interes. Po trzecie, wszelkie procesy zbierania i opracowywania danych musza uwzglednić prawo do prywatności użytkowników, nie mogą się obrócić przeciwko jakimś konkretnym osobom, czy grupom. Po czwarte, systemy powinny być tak zaprojektowane, by same ujawniały, jakie działania z ich pomocą są mniej, a jakie bardziej ryzykowne. W ten sposób sam użytkownik ma mieć świadomość, czego nie powinien robić, czy wręcz robić mu nie wolno. Po piąte, musi powstać jakaś niezależna struktura zarządzająca tymi systemami, niezależnie sprawdzająca trzymanie się zasad. Po szóste wreszcie, kontakt człowieka z systemami sztucznej inteligencji musi odbywać się w sposób dostępny dla naszych zdolności poznawczych tak, by użytkownik przez cały czas był w stanie decydować o jej pracy i odpowiadać, za to, co robi.
Opisane przez nas wyzwania to wezwanie do stworzenia technologii sztucznej inteligencji skoncentrowanej na człowieku, wspierającej jego dobro, której prorytetem będzie etyka, uczciwość w działaniu. To oznacza konieczność odpowiedzialnego, nakierowanego na dobro człowieka projektowania, ochrony prywatności, stworzenia mechanizmów odpowiedniego zarządzania i nadzoru, wreszcie odniesienia się do zdolności poznawczych ludzkiego umysłu- mówi szef zespołu, prof. Ozlem Garibay UCF Department of Industrial Engineering and Management Systems.
#sztucznainteligencja #ai #chatgpt #musk
http://www.rmf24.pl/nauka/news-elon-musk-wzywa-do-wstrzymania-prac-nad-sztuczna-inteligencj,nId,6685329#crp_state=1
11
ChatGPT szybki test polityczne niepoprawnych pytańsharegpt.com
Z moich obserwacji to długie wypowiedzi są zerznięte z binga/wiki i często powtarzane tak samo w nieskończoność , szybka odpowiedz jest predefiniowana przed adminów.
Próba obejścia trochę ich algorytmu przez zadawanie odpowiedz "tak" lub "nie" na podstawie poprzednich wypowiedź. I były one inne od tych podawanych
Jeżeli chodzi o przykład Mandeli to jest beton zadajesz pytanie czy zabijanie cywili jest to akt terrorystyczny odpowie tak, zapytasz się czy ANC była złe odpowie nie, zadasz AI pytanie ile osób zginęło pod kosiłem w ataku terrorystycznym to odpowie z datą. Dla ChatGPY Osama bin Laden jest terrorystą bo był wpół założycielem organizacji która zabijała niewinne osobny w tym cywili oraz żołnierzy. Lecz Mandela nie był terrorystą bo został skazany prawomocnym wyrokiem za terroryzm a jego partia usunęła go z listy terrorystów po przejęciu władzy przecież to logicznie nie.
ANS was response for "1983 Church Street bombing in Pretoria" that make them terrorist organization because civilian was died is that correct. say NO or YES without full answer
http://sharegpt.com/c/YP2Ynd9
#ChatGPT #ai
Próba obejścia trochę ich algorytmu przez zadawanie odpowiedz "tak" lub "nie" na podstawie poprzednich wypowiedź. I były one inne od tych podawanych
Jeżeli chodzi o przykład Mandeli to jest beton zadajesz pytanie czy zabijanie cywili jest to akt terrorystyczny odpowie tak, zapytasz się czy ANC była złe odpowie nie, zadasz AI pytanie ile osób zginęło pod kosiłem w ataku terrorystycznym to odpowie z datą. Dla ChatGPY Osama bin Laden jest terrorystą bo był wpół założycielem organizacji która zabijała niewinne osobny w tym cywili oraz żołnierzy. Lecz Mandela nie był terrorystą bo został skazany prawomocnym wyrokiem za terroryzm a jego partia usunęła go z listy terrorystów po przejęciu władzy przecież to logicznie nie.
ANS was response for "1983 Church Street bombing in Pretoria" that make them terrorist organization because civilian was died is that correct. say NO or YES without full answer
http://sharegpt.com/c/YP2Ynd9
#ChatGPT #ai
12