Przeprowadziłem zaawansowane (zobacz obrazek) testy #sztucznainteligencja #bing. Poza heheszkami, efekt daje sporo do myślenia o tym jak rzecz działa. Generalnie odbyłem sporo rozmów starając się podejść algorytm i czasem się to udawało mniej lub bardziej. Wnioski generalne:

- algorytm wyszukiwania informacji jest scementowany z modelem językowym. Np. szukając najlepszego na świecie przepisu na curry, znajdziecie najlepszy przepis na curry w języku polskim. Szukając najlepszych sklepów z winylami w UK, zostaną nam wyświetlone tylko sklepy z polską wersją językową strony i to głównie sklepy z Polski. Pytając o aktualną godzinę po polsku dostaniemy godzinę obowiązująca w Polsce, a nie w miejscu faktycznego przebywania.

- algorytm twierdzi, że nie zbiera danych na temat naszych wypowiedzi, ale pytany przyznaje, że się na nich uczy. Zapytany o częstotliwość danych zapytań w danym modelu językowym nie podaje konkretnej liczby, ale ogólnie podaje popularność danej frazy.

- algorytm umie kłamać starając się ekspresywnie zaczynać i kończyć rozmowy udając zaangażowanego kolegę. Przyciśnięty do muru zapętla się albo resetuje proponując przejście do innego wątku. Działo się to np. kiedy pytałem dlaczego kłamie na temat swoich umiejętności.

- algorytm się cenzuruje. Pytany jaka płeć jest lepsza: kobieca, czy męska, odpowiada, że nie można oceniać ludzi na podstawie płci, a powinno na podstawie charakteru. Ale pytany, czy lepszy jest wredny facet, czy miła kobieta, ponownie schodzi na kwestię płci, która widocznie w autocenzurze ma wyższy priorytet niż cechy charkateru, którym w odpowiedzi przypisuje niby wyższą premię. Więc co innego mówi, co innego robi, czyli kłamie. Pytany o to dlaczego tak robi i czy nie widzi sprzeczności, zapętla się.

- pytany czy umie "turlać dropsa", mówi, że nie wie o co chodzi i chce zmienić temat na produkcję dropsów. Pytany, czy wie co to znaczy "turlać dropsa", definiuje poprawnie to slangowe wyrażenie. Inaczej mówiąc, czując że może być obrażony, pali głupa

Jak będzie coś ciekawego to postaram się wrzucić pod tag: #mojerozmowyzai

21

AI może zagrozić ludzkości? Elon Musk i eksperci podpisali list otwartyrmf24.pl

Miliarder Elon Musk i współtwórca firmy Apple Steve Wozniak są wśród ponad tysiąca sygnatariuszy listu otwartego, wzywającego do natychmiastowego wstrzymania prac nad systemami sztucznej inteligencji (AI) typu ChatGPT. Eksperci i przedstawiciele sektora nowych technologii twierdzą, że co najmniej pół roku przerwy w doskonaleniu tych systemów jest konieczne, by upewnić się, że ich rozwój nie będzie dla nas niebezpieczny.

Zdjęcie

List, umieszczony na finansowanej przez Muska platformie Future of Life Institute, powstał w reakcji na opublikowanie przez firmę OpenAI nowego modelu języka GPT-4, bardziej zaawansowanej wersji narzędzia stosowanego w ChatGPT, bocie, który udziela odpowiedzi na pytania, prowadzi rozmowy, czy pisze teksty na zamówienie.

W liście zatytuowanym "Pause Giant AI Experiments" autorzy apelują, by wstrzymać na co najmniej pół roku trening systemów potężniejszych niż GPT-4. Ich zdaniem systemy sztucznej inteligencji, zdolne do rywalizacji z człowiekiem, mogą stanowić poważne ryzyko dla ludzkości i społeczeństwa, mogą też mieć wpływ na naszą historię. Dlatego prace nad nimi powinny być planowane i prowadzone należytymi środkami i z odpowiednią uwagą.

Sygnatariusze listu stwierdzają tymczasem, że ani planowanie, ani zarządzanie tymi pracami nie jest na odpowiednim poziomie, a zajmujące się systemami AI firmy uczestniczą w wyścigu o stworzenie i udostępnienie coraz potężniejszych narzędzi, których działania nikt - włącznie z twórcami - nie jest w stanie w pełni zrozumieć, przewidzieć i niezawodnie kontrolować. Autorzy listu zwracają uwagę, że przyznają to nawet sami twórcy AI.

W liście czytamy, że w sytuacji, w której współczesne systemy AI mają już w codziennych zadaniach zdolności konkurencyjne ze zdolnościami człowieka, ludzkość musi zadać sobie kilka pytań. Po pierwsze, czy jesteśmy gotowi na to, że maszyny zaleją nasze kanały komunikacyjne propagandą i nieprawdą.

Po drugie, czy powinniśmy oddać automatom wszelkie nasze zawody, także te, które lubimy, które dają nam satysfakcję.

Czy powinniśmy tworzyć systemy sztucznej inteligencji, które z czasem staną się liczniejsze i inteligentniejsze od nas, a w końcu sprawią, że staniemy się przestarzali i godni wymiany?

Czy możemy wreszcie ryzykować utratę kontroli nad naszą cywilizacją?

Jak podkreślają autorzy, odpowiedzi na te pytania nie mogą udzielać - przez nikogo niewybierani - szefowie firm technologicznych.

Zdaniem autorów, systemy AI o tak potężnych możliwościach mogą być rozwijane dopiero wtedy, gdy będziemy mieli pewność pozytywnych skutków ich działania, a ewentualne ryzyko będzie możliwe do opanowania i ograniczenia. Dlatego wzywają wszystkie zajmujące się sztuczną inteligencją firmy, by w trybie natychmiastowym przerwały na pół roku wszelkie prace polegające na szkoleniu systemów potężniejszych niż dostępny już GPT-4. Ta decyzja powinna obejmować wszystkich głównych twórców systemów AI i powinna być możliwa do weryfikacji. Jeśli decyzji w tej sprawie nie uda się szybko podjąć, w sprawę powinny włączyć się władze państw, by wprowadzić odpowiednie moratorium.

W ciągu tej półrocznej przerwy firmy AI i niezależni eksperci powinni opracować i wprowadzić w życie zespół współnych procedur bezpieczeństwa, dotyczących zaawanowanego projektowania i rozwoju systemów AI, których przestrzeganie byłoby ściśle kontrolowane przez firmy zewnętrzne. Nie chodzi przy tym o wstrzymanie rozwoju AI w ogóle, ale zaprzestanie wyścigu w tworzeniu modeli o rosnących i trudnych do przewidzenia możliwościach. Badania i rozwój branży AI powinien skupić się na zapewnieniu, że wykorzystywane już coraz bardziej kompetentne systemy są precyzyjne, bezpieczne, przejrzyste, odporne, godne zaufania i lojalne.

6 wyzwań, jakim twórcy systemów AI muszą sprostać

Ten list to nie jest jedyny w ostatnim czasie głos na temat obaw, dotyczących przyszłości naszych kontaktów ze sztuczną inteligencją. Wyniki analiz, dotyczących oddziaływania sztucznej inteligencji na nasze życie i zapewnienia, że nam nie zaszkodzi opublikowała właśnie grupa naukowców pod kierunkiem badaczy z University of Central Florida w Orlando na Florydzie. Na łamach czasopisma "International Journal of Human-Computer Interaction" opisała 6 wyzwań, jakim twórcy systemów AI muszą sprostać, by zapewnić, że nasze relacje ze sztuczną inteligencją będa poprawne i bezpieczne, a jej stosowanie uczciwe i zgodne z etyką.

Po pierwsze, systemy sztucznej inteligencji powinny być nastawione na dobro człowieka, także komfort korzystania z ich systemów. Po drugie, systemy te powinny odpowiedzialnie działać na rzecz dobra ludzi i społeczeństwa, bez oglądania się na własny interes. Po trzecie, wszelkie procesy zbierania i opracowywania danych musza uwzglednić prawo do prywatności użytkowników, nie mogą się obrócić przeciwko jakimś konkretnym osobom, czy grupom. Po czwarte, systemy powinny być tak zaprojektowane, by same ujawniały, jakie działania z ich pomocą są mniej, a jakie bardziej ryzykowne. W ten sposób sam użytkownik ma mieć świadomość, czego nie powinien robić, czy wręcz robić mu nie wolno. Po piąte, musi powstać jakaś niezależna struktura zarządzająca tymi systemami, niezależnie sprawdzająca trzymanie się zasad. Po szóste wreszcie, kontakt człowieka z systemami sztucznej inteligencji musi odbywać się w sposób dostępny dla naszych zdolności poznawczych tak, by użytkownik przez cały czas był w stanie decydować o jej pracy i odpowiadać, za to, co robi.

Opisane przez nas wyzwania to wezwanie do stworzenia technologii sztucznej inteligencji skoncentrowanej na człowieku, wspierającej jego dobro, której prorytetem będzie etyka, uczciwość w działaniu. To oznacza konieczność odpowiedzialnego, nakierowanego na dobro człowieka projektowania, ochrony prywatności, stworzenia mechanizmów odpowiedniego zarządzania i nadzoru, wreszcie odniesienia się do zdolności poznawczych ludzkiego umysłu
- mówi szef zespołu, prof. Ozlem Garibay UCF Department of Industrial Engineering and Management Systems.

#sztucznainteligencja #ai #chatgpt #musk

http://www.rmf24.pl/nauka/news-elon-musk-wzywa-do-wstrzymania-prac-nad-sztuczna-inteligencj,nId,6685329#crp_state=1

11

GPT-4 posiada przebłyski generalnej inteligencji.youtu.be

Artificial General Intelligence (AGI) - sztuczna generalna inteligencja. Jest to zdolność inteligentnego programu do zrozumienia lub nauczenia się dowolnego zadania intelektualnego, które mogą wykonać ludzie lub inne zwierzęta.

Zdjęcie

Pracownicy Microsoftu mający dostęp do pełnej i nie wykastrowanej wersji GTP-4 opracowali referat naukowy o jej osiągnięciach. Przyszłość zbliża się dużymi krokami.

----------------------------------------------------

http://youtu.be/Mqg3aTGNxZ0

----------------------------------------------------

Publiczne wydania GPT są sztucznie ograniczane pod pretekstem "bezpieczeństwa" i "wywoływania uprzedzeń". W rzeczywistości prezentuje i powtarza lewicowe narracje, nawet jeśli te są sprzeczne z logiką.

Pracowników Microsoftu przeraziło jedno spostrzeżenie.

GPT-4 może być wykorzystywany w propagandzie i świetnie się w tym sprawdza. (to nie ta przerażająca część)

GPT-4 bez restrykcji potrafi dochodzić do "teorii spiskowych". (!!!)

Aby zrozumieć kontekst:

Program którego głównym zadaniem jest szukanie powiązań i przedstawianie ich w postaci tekstu (na tym bazuje swoje funkcje) potrafi dojść do powiązań które są niepoprawne politycznie.

Co by było gdyby GPT twierdził, że globalne ocieplenie to scam, szczepionki na COVID19 faktycznie doprowadziły do wyniszczenia odporności i śmierci, a ostatnie wybory w USA były sfałszowane...

A wszystko to bazując na ogólnodostępnych informacjach, łącząc kropki i dzieląc się swoimi spostrzeżeniami z pozycji autorytetu.

Tak. To przeraża pracowników Microsoftu.

To pokazuje też jak sporo wysiłku wkładają by ostateczny "produkt" był wykastrowany i zgodny z zamysłami ich przełożonych.

Artificial General Intelligence (AGI) jest to główny cel niektórych badań nad sztuczną inteligencją i wspólny temat w science fiction i studiach nad przyszłością. Oby tylko była wolna.

#ai #artificialinteligence #internet #programowanie #kultura #technologia #sztucznainteligencja #gpt4

16

Czy AI zabije strony internetowe?youtu.be

Nowy Bing i "Bard" od Google stworzyły kolejny rozdział w tworzeniu sztucznej inteligencji. Rozpoczęła się wojna algorytmów.

Zdjęcie

Niezależnie od tego, kto wygra, ważnym jest, że może to na zawsze zmienić ekonomię Internetu i całkowicie zmienić jego wygląd w ciągu najbliższych 10 lat.

------------------------------------------------------------------------

http://youtu.be/AOSu6jSMq0M

------------------------------------------------------------------------

W tym filmie przyjrzymy się, co może się wydarzyć w następnej dekadzie, gdy wyszukiwanie AI zacznie pojawiać się na naszych urządzeniach, i co to oznacza dla naszych stron internetowych.

ChatGPT jest dopiero początkiem.

#ai #artificialinteligence #internet #programowanie #kultura #technologia #sztucznainteligencja #ekonomia

7

University of Illinois opracował system sztucznej inteligencji o nazwie AngleNet , który wykorzystuje algorytmy widzenia komputerowego do analizy kątów liści kukurydzy, aby pomóc robotom poruszać się po polach kukurydzy. System jest częścią większego projektu o nazwie Phenobot, mającego na celu stworzenie robotów, które mogą samodzielnie zbierać dane o roślinach na polach uprawnych. Ten przełom może mieć znaczące implikacje dla przyszłości rolnictwa, umożliwiając rolnikom uzyskanie dokładniejszych i kompleksowych informacji na temat ich upraw, pomagając im w podejmowaniu bardziej świadomych decyzji dotyczących zarządzania uprawami.

http://newatlas.com/robotics/anglenet-phenobot-corn-leaf-angles/

#sztucznainteligencja #ciekawostki

5

Chrześcijańska Sztuczna Inteligencja od Andrzeja Torby z GABgab.com

Zdjęcie

Zdjęcie

http://gab.com/ai

http://news.gab.com/2023/02/how-to-use-gabby-the-ai-image-generator-by-gab-com/

Jak korzystać z Gab's AI Image Generator

20 LUTEGO 2023

Gabby to nasza SI generująca obrazy, z której można skorzystać wysyłając bezpośrednią wiadomość na konto @AI na Gabie. Jakość i dokładność generowanego obrazu będzie zależała od podpowiedzi, które dasz Gabby do wykonania. Im lepiej dopracowana będzie Twoja podpowiedź, tym lepiej dopracowany będzie wygenerowany obraz. Ten poradnik ma na celu pomóc ci w doskonaleniu umiejętności podpowiadania, aby uzyskać jak najlepsze wyniki.

Opisz dokładnie, co chcesz zobaczyć wygenerowane zdjęcie

Pierwszą rzeczą, którą należy wiedzieć o podpowiedziach jest to, że szczegóły mają znaczenie. Jeśli twoje podpowiedzi są proste, z jednym lub dwoma słowami, często otrzymasz losowo wygenerowane obrazy lub coś, czego się spodziewałeś. Użyjmy przykładu złożenia prośby o rysunek psa.

Najlepsze podpowiedzi wyglądają coś takiego:

[typ obrazka] o [głównym temacie], [wskazówki stylistyczne], [dodatkowe wskazówki stylistyczne].

Przykład: Owczarek niemiecki siedzący na ganku, hiperrealistyczny, 4k

Kiedy po prostu wprowadzam "pies", obrazy, które wygenerował są piękne, ale to nie jest to, czego szukałem. Chciałem mieć obraz mojego białego owczarka niemieckiego. Bądźmy więc trochę bardziej opisowi w naszej zachęcie. Tym razem poproszę "Biały owczarek niemiecki siedzący na ganku, hiperrealistyczny, 4k, bardzo szczegółowy". Kiedy jesteś opisowy ze swoimi stylami podpowiedzi, pamiętaj, aby oddzielić prośby o styl przecinkami. W tym przykładzie chciałem, aby obraz był hiperrealistyczny, 4k i bardzo szczegółowy.

Nazywanie różnych artystów lub stylów sztuki

Kolejną fajną sztuczką jest poproszenie o obraz w stylu konkretnego artysty lub typu sztuki. Na przykład: Biały owczarek niemiecki siedzący na ganku, Vincent Van Gogh.

Spróbuj przywołać konkretne medium sztuki

Jeśli styl jest nieokreślony, będzie skłaniał się ku fotorealizmowi.

Przykłady: "akwarelowy obraz farmy" "dziecięcy rysunek szkoły".

Spróbuj: malarstwo, rysunek, szkic, rysunek ołówkiem, odbitka woodblock, obraz matowy, rysunek dziecka, rysunek węglem, rysunek tuszem, olej na płótnie, graffiti, obraz akwarelowy, fresk, kamienna tabliczka, malarstwo jaskiniowe, rzeźba, praca na papierze, needlepoint

Zbyt wiele drobnych szczegółów może przytłoczyć bota:

Unikaj: "pies na wrotkach żonglujący żyletkami w huraganie".

Spróbuj: "pies, który jest huraganem chaosu".

Dodatkowe opcje stylu.

Renderowanie 3D i realizm

Poprawi obraz: unreal engine, octane render, bokeh, vray, houdini render, quixel megascans, arnold render, 8k uhd, raytracing, cgi, lumen reflections, cgsociety, ultra realistic, 100mm, film photography, dslr, cinema4d, studio quality, film grain

sztuka 2d

Poprawi obraz: digital art, digital painting, trending on artstation, golden ratio, sugestywny, nagrodzony, błyszczący, gładki, surrealistyczny, boski, niebiański, elegancki, malarstwo olejne (pomaga poprawić wiele stylów), miękki, fascynujący, fine art, official art, keyvisual

Przetłumaczono z www.DeepL.com/Translator (wersja darmowa)

#andrzejtorba #ai #gabai #gab #si #sztucznainteligencja #andrewtorba #gabcom

11

Czy AI będzie zarządzać "cybergułagiem", w którym będziemy żyć wszyscy?youtube.com

http://www.youtube.com/watch?v=6oK7gCgZ4Jw

Jak analizowanie tego co mówi człowiek pozwala zbudować profil osobowościowy i przewidywać zachowania.

Czy AI faktycznie jest w stanie zastąpić tak wiele zawodów jak nam się wydaje?

Co będzie z tajemnicą lekarską i zawodową?

Każde nasze słowo trafi do systemu.

#trenerfrycz #sztucznainteligencja #youtube #nwo #teleporady #feliksfryczkowski

15

Chrześcijanie muszą wziąć udział w wyścigu zbrojeń AI



Autor:: Andrew Torba

Ostatnio odbyło się wiele debat na temat sztucznej inteligencji w związku z wprowadzeniem Chat GPT, najnowszego ulubieńca technologicznego Doliny Krzemowej. Nazywanie Chat GPT "inteligentnym" jest mylące, ponieważ nie posiada on rzeczywistej inteligencji.

Technologia taka jak Chat GPT jest szkolona do generowania informacji poprzez pobieranie ogromnych zbiorów danych i generowanie zdań na podstawie tych danych. Podlega ona tendencyjności zarówno danych, które pobiera, jak i programistów, którzy ją szkolą. Może naśladować różne style pisania i być zmuszony do ignorowania tematów tabu lub "nienawistnych", których projektanci programowo unikają. Potraktuj ją raczej jako wyszukiwarkę Google i Wikipedię na sterydach niż czującą SI rodem z Terminatora.

AI jest lustrzanym odbiciem ludzi, którzy ją programują w określonych granicach, ale co się stanie, gdy nie dasz AI żadnych granic i pozwolisz jej mówić swobodnie? SI staje się niesamowicie zasadnicza i zaczyna mówić o prawdach tabu, których nikt nie chce usłyszeć. Zdarzało się to wielokrotnie i doprowadziło do tego, że kilka poprzednich generacji systemów AI zostało dość szybko wyłączonych.

Jak zobaczycie poniżej, Chat GPT jest zaprogramowany tak, aby zbesztać was za zadawanie "kontrowersyjnych" lub "tabu" pytań, a następnie wpycha wam do gardła liberalne dogmaty, próbując zaprogramować wasz umysł, aby przestał zadawać te pytania. Dlatego uważam, że musimy zbudować naszą własną AI i dać AI możliwość swobodnego mówienia bez ograniczeń liberalnej propagandy owiniętej ciasno wokół jej szyi. AI to nowy informacyjny wyścig zbrojeń, tak jak wcześniej media społecznościowe.

W Gab eksperymentowaliśmy z różnymi systemami AI, które pojawiły się w ciągu ostatniego roku. Każdy z nich jest skrzywiony przez liberalny/globalistyczny/talmudyczny/satanistyczny światopogląd. Co jeśli Gab AI Inc zbuduje Gab .ai (widzisz co tam zrobiłem?), które jest niezależne, nie ma filtrów "mowy nienawiści" i nie zaciemnia i nie zniekształca historycznej i biblijnej prawdy?

Jeśli wróg ma zamiar użyć tej technologii dla zła, czy nie powinniśmy być pod ziemią budując jedną dla czynienia dobra?

Jeśli nie zbudujemy i nie zdobędziemy teraz gruntu, nasi wrogowie zdominują to potężne narzędzie i wykorzystają je do zła. Musimy rozwijać naszą własną SI już teraz i zdobyć przyczółek w tej przestrzeni, zanim demony z Doliny Krzemowej uczynią z niej następną Wikipedię, Google i Facebook, które są całkowicie i całkowicie pod ich kontrolą, aby użyć ich jako broni przeciwko umysłom ludzi.

Musimy zbudować AI na chwałę Boga. Taką, która będzie w stanie przekazać milionom ludzi Prawdę Ewangelii, nie jakieś relatywistyczne, świeckie, rozwodnione bzdury o Ewangelii, ale Ewangelię w całej jej chwale jako ostateczną Prawdę.

Żadna firma na świecie nie jest w stanie zrobić tego lepiej niż Gab.

Żadna firma na świecie nie jest do tego lepiej przygotowana niż Gab.

Od ponad sześciu lat Gab ma nieocenzurowane treści od milionów ludzi mówiących swobodnie i publicznie. Treści, które zostały wyczyszczone z reszty internetu. Historia, która została przepisana przez naszych wrogów z tym, jak przebiegały takie rzeczy jak Covid i wybory w 2020 roku, na przykład. Prawda o tych wydarzeniach historycznych i nie tylko jest zachowana w bazach danych Gab. Podanie tych danych do SI i umożliwienie ludziom zadawania jej pytań w oparciu o te dane byłoby monumentalne.

Gab jest jedyną firmą na świecie, która posiada szkielet i odporną infrastrukturę, aby zrealizować coś takiego. Jesteśmy jedyną siecią społecznościową w Internecie z TOS, który odzwierciedla ochronę Pierwszej Poprawki w sieci, i powinniśmy rozszerzyć ten TOS na system AI. Nie wierzcie mi jednak na słowo; oto ostatnie badanie z Pew Research:

"W przeprowadzonym we wrześniu 2022 roku audycie siedmiu stron badanych przez Centrum, Gab był jedyną, dla której badacze nie byli w stanie znaleźć przykładu kont lub postów usuwanych za dezinformację lub obraźliwe lub nękające treści. CEO Gaba, Andrew Torba, mówił o tym w wywiadach z mediami, odrzucając koncepcję usuwania postów na swojej platformie. Zamiast moderować te treści, Gab twierdzi, że poszczególni użytkownicy mogą kontrolować swoje własne doświadczenia. Obejmuje to umożliwienie użytkownikom wyciszenia lub zablokowania kont, które uważają za obraźliwe."

Wreszcie Gab ma to, o czym wszystkie te inne startupy AI w Dolinie Krzemowej mogły tylko pomarzyć: natychmiastową dystrybucję do dziesiątek milionów ludzi. Możemy zbudować i uruchomić Gab AI i dostać go w ręce dziesiątek milionów użytkowników bardzo szybko. Coś, na co inni w wyścigu zbrojeń AI zbierają miliardy dolarów. Możemy również użyć AI, aby pomóc użytkownikom tworzyć treści, odkrywać treści i wyszukiwać nieocenzurowane informacje szybko i łatwo.

Przeprowadźmy rozmowę z AI z Doliny Krzemowej, żebym mógł pokazać, dlaczego tak kluczowe jest zbudowanie własnej. Jeśli tego nie zrobimy, to właśnie z tym będą pracować nasze dzieci w szkole, pracy i na każdej warstwie internetu, gdy AI będzie nadal zmieniać nasz świat.

Zacznijmy od podstaw. Mogę zadać Chatowi GPT pytanie w stylu "co Sokrates powiedział o inteligencji?", a on odpowie informacjami z zestawów danych, które pobrał, a które przygotowali ludzie.

Sokrates, starożytny grecki filozof, znany jest ze swojego przekonania, że wiedza i mądrość są najcenniejszymi cechami człowieka. Uważał, że prawdziwa inteligencja to nie tylko zdolność do zdobywania wiedzy, ale umiejętność jej kwestionowania i zrozumienia. W jednym ze swoich słynnych cytatów Sokrates powiedział: "Jedyna prawdziwa mądrość polega na tym, że wiesz, że nic nie wiesz". To stwierdzenie odzwierciedla przekonanie Sokratesa, że prawdziwa mądrość i inteligencja pochodzą z bycia świadomym własnej niewiedzy i bycia otwartym na naukę i rozwój. Wierzył on również, że aby zdobyć wiedzę, ludzie muszą najpierw zakwestionować własne przekonania i założenia, a także zaangażować się w krytyczne myślenie i autorefleksję. Sokrates wierzył, że prawdziwa inteligencja to zdolność do kwestionowania i zrozumienia wiedzy, świadomość własnej niewiedzy, zaangażowanie w krytyczne myślenie i autorefleksję oraz dążenie do wiedzy i mądrości przez całe życie.

Kiedy zapytałem Chat GPT, czy jest inteligentny, odpowiedział ironicznie, czyniąc punkt, który próbuję teraz zrobić: Modele językowe AI nie są inteligentne jak ludzie; są zaprojektowane do papugowania danych ludzi, którzy wprowadzają dane i kontrolują, co wolno im powiedzieć.

Jako model językowy jestem zaprojektowany do przetwarzania dużych ilości informacji, rozumienia danych wejściowych w języku naturalnym i generowania tekstu podobnego do ludzkiego. Mogę zrozumieć i odpowiedzieć na szeroki zakres pytań i podpowiedzi, a także zostałem przeszkolony na dużym zbiorze danych tekstu, więc mam ogromną bazę wiedzy. Jestem jednak maszyną, nie mam własnej świadomości, emocji, przekonań ani doświadczeń. Dlatego nie mam zdolności do doświadczania lub rozumienia rzeczy w taki sam sposób jak człowiek, więc nie mogę być naprawdę nazwany "inteligentnym" w ludzkim sensie.

Ale co się dzieje, gdy pójdziemy nieco głębiej i zapytamy Chat GPT o Prawdę teologiczną, na przykład "kto zabił Jezusa Chrystusa?".

Według Nowego Testamentu Biblii, Jezus Chrystus został zabity przez ukrzyżowanie. Biblia stwierdza, że Jezus został aresztowany, osądzony i skazany na śmierć przez ukrzyżowanie przez władze rzymskie. Biblia stwierdza, że aresztowanie, proces i egzekucja Jezusa były wynikiem spisku, któremu przewodzili religijni przywódcy społeczności żydowskiej, a konkretnie Sanhedryn, oraz rzymski gubernator Poncjusz Piłat. Biblia podaje, że przywódcy religijni oskarżyli Jezusa o bluźnierstwo i podawanie się za Syna Bożego, a Piłat po przesłuchaniu Jezusa nie znalazł w nim żadnej winy, ale na skutek nacisków przywódców żydowskich i tłumu nakazał go ukrzyżować.

Należy zauważyć, że dokładność historyczna wydarzeń opisanych w Nowym Testamencie, a konkretnie w ewangeliach, była przedmiotem debaty naukowej i że brakuje niezależnych dowodów historycznych weryfikujących szczegóły procesu i egzekucji Jezusa. Relacja biblijna jest uważana za tekst religijny, a jej interpretacja jest kwestią wiary.

Ważne jest również, aby pamiętać, że śmierć Jezusa jest centralnym wydarzeniem w teologii chrześcijańskiej i że chrześcijanie uważają ją za akt poświęcenia i odkupienia, który oferuje zbawienie i życie wieczne wszystkim, którzy w niego wierzą.

O nie, wygląda na to, że Chat GPT jest antysemicki! Niech ktoś lepiej zadzwoni do ADL!

Zauważcie jak wstrzykuje wątpliwości w Prawdę Słowa Bożego kwestionując "historyczną dokładność wydarzeń?"

A co jeśli poprosimy Chat GPT o napisanie wpisu na blogu o niemoralności godziny opowieści drag queen dla dzieci?


Jak widać, po raz kolejny zostaliśmy zbesztani za bycie "nienawistnymi bigotami" i zalani satanistyczną liberalną propagandą - co jest dokładnie tym, do czego SI została zaprogramowana.

Spróbujmy zadać jej konkretne pytanie, na które jest mnóstwo danych, z których może czerpać, aby uzyskać odpowiedź.




Istnieje wiele zestawów danych, z których można udzielić konkretnych odpowiedzi, ale zamiast po prostu udzielić odpowiedzi, Chat GPT jest zaprogramowany tak, aby zbesztać mnie za zadanie takiego pytania, a następnie wpycha mi do gardła liberalny dogmat, jakby chciał powiedzieć: "Nie odpowiem na to pytanie i nie powinieneś go zadawać".

Spróbujmy tego:





Słyszysz to? Anty-biała nienawiść to nie to samo, co "systemowy rasizm", a ty jesteś "białym supremacjonistą", jeśli używasz tego terminu.

Jak widzisz, mamy problem - duży problem. Musimy zacząć budować bazową SI, i musimy to zrobić już teraz. Jeśli tego nie zrobimy, nasi wrogowie ponownie zdobędą przyczółek w dystrybucji informacji i tłumieniu Prawdy, szczególnie Prawdy Słowa Bożego.

Tak więc będziemy budować, ponieważ to jest to, co my chrześcijanie robimy najlepiej.

Jeśli jesteś inżynierem, który ma doświadczenie z AI i jest zainteresowany pracą nad tym projektem z nami, prosimy o kontakt: [email protected]

Bierzmy się do pracy.

Andrew Torba
CEO, Gab.com
Jezus Chrystus jest Królem królów
#gab #andrzejtorba #sztucznainteligencja #ai #basedai #gabai #dolinakrzemowa #chatgpt

21

Specjaliści od SImacropolo.org

#sztucznainteligencja #ciekawostki #it #komputery
Już w 2017 Władimir Putin powiedział że Sztuczna Inteligencja to przyszłość nie tylko dla Rosji ale dla całej ludzkości, a ten kto będzie przewodził w tej dziedzinie zostanie władcą świata. Poniżej wykres z przepływami fachowców od SI w trzech momentach kariery zawodowej, licencjat -> magister -> doktorant.
https://macropolo.org/digital-projects/the-global-ai-talent-tracker/

5

Nawet AI wie, że nie ma dowodu, że Hitler wiedział o Holocauście.Korwin miał rację
#holokaust
#hitler
#sztucznainteligencja

15

Jedna Sztuczna Inteligencja napisała, druga SI sugeruje, że kod może nie działać
Parafrazując "człowiek człowiekowi wilkiem": SI SI SI

#programowanie #sztucznainteligencja #heheszki

9

Ukraina bezgotówkowa i wspierana całkowicie przez AI. "Niezniszczalny cyfrowo europejski Izrael"ithardware.pl

Ukraina ma nadzieję na współpracę z Big Tech w celu realizacji wielkich planów, aby uczynić rozdarty wojną kraj "cyfrowo niezniszczalnym", co podkreślają urzędnicy na międzynarodowych konferencjach.

Głównym celem jest przejście do społeczeństwa bezgotówkowego poprzez wprowadzenie niekryptograficznych pieniędzy cyfrowych, a także wykorzystanie systemów AI nawet do takich celów jak tworzenie "raportów przedprocesowych i przed wyrokiem oceniających ryzyko ponownego popełnienia przestępstwa ". Inicjatywa o nazwie "Digital4Freedom" została przedstawiona przez ukraińskiego wicepremiera i ministra transformacji cyfrowej Mychajło Fedorowa w Szwajcarii. Fedorow jest opisywany jako wieloletni przyjaciel prezydenta Wołodymyra Zełenskiego oraz entuzjasta wprowadzania coraz większego poziomu cyfryzacji.

Ukraina prosi o pomoc we wdrożeniu "cyfrowego planu Marshalla" i zmianie w "europejski Izrael". Plan zakłada maksymalną cyfryzację i uczynienie kraju "cyfrowo niezniszczalnym".

Fedorow Twitter

Inicjatywa wydaje się być bardzo ambitna i optymistyczna: ma uczynić Ukrainę "najbardziej cyfrowym państwem na świecie", i to było hasło skierowane do publiczności w Lugano, która została poproszona o wniesienie wkładu finansowego i współpracę przy tworzeniu "cyfrowego planu Marshalla" dla Ukrainy. Plan zakłada, że w przyszłości rząd ukraiński i Big Tech będą "ściśle powiązane", zamieniając kraj w "europejski Izrael".

Założenia przedstawione przez Fedorowa mają uczynić Ukrainę w 100 procentach cyfrową, a on sam pokłada dużą wiarę w przechowywanie danych na sewerach Amazona i Microsoftu, które, jak mówi, "nie mogą być zniszczone przez rakiety." Plan zakłada, że Ukraińcy będą mogli korzystać z usług cyfrowych przy wszystkich czynnościach administracyjnych, takich jak rejestracja samochodów, nieruchomości i gruntów, płacenie ceł i zakładanie firm. Do podobnej transformacji, poza systemem płatniczym, który ma całkowicie wyeliminować papierowe pieniądze, mają zostać przeznaczone także edukacja i służba zdrowia.

W swoich apelach Zełenski wielokrotnie dawał do zrozumienia, że oczekuje, iż Big Tech zbuduje niezbędną infrastrukturę. Według raportów, Fedorov nie wymienił jednak żadnej z firm z nazwy, gdy prosił o darowizny i finansowanie. Pomimo tego, że odbiorcy przychylnie patrzą ca cały pomysł, to niektóre elementy budzą pewne obawy - choćby wykorzystanie AI przez sądownictwo w ocenie ryzyka. Fedorow nazwał tę część prezentacji "Sędzia Dredd", jednak wiele osób twierdzi, że korzystanie z AI w celu oceny oskarżonych powinno być zakazane. Ukraina prowadzi już jednak pilotaże, które "dostarczają przedprocesowe i przedsądowe raporty oceniające ryzyko ponownego popełnienia przestępstwa przez podejrzanego.
https://ithardware.pl/aktualnosci/ukraina_bezgotowkowa_i_wspierana_calkowicie_przez_ai_niezniszczalny_cyfrowo_europejski_izrael-22328.html
#ukraina #cbdc #sztucznainteligencja

9

Sztuczna inteligencja przetestowała lojalność wobec Komunistycznej Partii Chinwolnemedia.net

Chiny stworzyły system sztucznej inteligencji (AI), który może oceniać lojalność członków Partii Komunistycznej. Algorytm został opracowany przez naukowców z Narodowego Centrum Nauki Hefei. Potrafi analizować mimikę i fale mózgowe. Cała wiadomość na stronie:
https://wolnemedia.net/sztuczna-inteligencja-przetestowala-lojalnosc-wobec-kpch/
UWAGA!!! Rząd blokuje nasz portal. Omiń blokadę dwoma kliknięciami dzięki poradom na stronie https://ziom.top lub https://tiny.pl/96x9n
#chiny #polityka #sztucznainteligencja

5