Przeprowadziłem zaawansowane (zobacz obrazek) testy #sztucznainteligencja #bing. Poza heheszkami, efekt daje sporo do myślenia o tym jak rzecz działa. Generalnie odbyłem sporo rozmów starając się podejść algorytm i czasem się to udawało mniej lub bardziej. Wnioski generalne:
- algorytm wyszukiwania informacji jest scementowany z modelem językowym. Np. szukając najlepszego na świecie przepisu na curry, znajdziecie najlepszy przepis na curry w języku polskim. Szukając najlepszych sklepów z winylami w UK, zostaną nam wyświetlone tylko sklepy z polską wersją językową strony i to głównie sklepy z Polski. Pytając o aktualną godzinę po polsku dostaniemy godzinę obowiązująca w Polsce, a nie w miejscu faktycznego przebywania.
- algorytm twierdzi, że nie zbiera danych na temat naszych wypowiedzi, ale pytany przyznaje, że się na nich uczy. Zapytany o częstotliwość danych zapytań w danym modelu językowym nie podaje konkretnej liczby, ale ogólnie podaje popularność danej frazy.
- algorytm umie kłamać starając się ekspresywnie zaczynać i kończyć rozmowy udając zaangażowanego kolegę. Przyciśnięty do muru zapętla się albo resetuje proponując przejście do innego wątku. Działo się to np. kiedy pytałem dlaczego kłamie na temat swoich umiejętności.
- algorytm się cenzuruje. Pytany jaka płeć jest lepsza: kobieca, czy męska, odpowiada, że nie można oceniać ludzi na podstawie płci, a powinno na podstawie charakteru. Ale pytany, czy lepszy jest wredny facet, czy miła kobieta, ponownie schodzi na kwestię płci, która widocznie w autocenzurze ma wyższy priorytet niż cechy charkateru, którym w odpowiedzi przypisuje niby wyższą premię. Więc co innego mówi, co innego robi, czyli kłamie. Pytany o to dlaczego tak robi i czy nie widzi sprzeczności, zapętla się.
- pytany czy umie "turlać dropsa", mówi, że nie wie o co chodzi i chce zmienić temat na produkcję dropsów. Pytany, czy wie co to znaczy "turlać dropsa", definiuje poprawnie to slangowe wyrażenie. Inaczej mówiąc, czując że może być obrażony, pali głupa
Jak będzie coś ciekawego to postaram się wrzucić pod tag: #mojerozmowyzai
- algorytm wyszukiwania informacji jest scementowany z modelem językowym. Np. szukając najlepszego na świecie przepisu na curry, znajdziecie najlepszy przepis na curry w języku polskim. Szukając najlepszych sklepów z winylami w UK, zostaną nam wyświetlone tylko sklepy z polską wersją językową strony i to głównie sklepy z Polski. Pytając o aktualną godzinę po polsku dostaniemy godzinę obowiązująca w Polsce, a nie w miejscu faktycznego przebywania.
- algorytm twierdzi, że nie zbiera danych na temat naszych wypowiedzi, ale pytany przyznaje, że się na nich uczy. Zapytany o częstotliwość danych zapytań w danym modelu językowym nie podaje konkretnej liczby, ale ogólnie podaje popularność danej frazy.
- algorytm umie kłamać starając się ekspresywnie zaczynać i kończyć rozmowy udając zaangażowanego kolegę. Przyciśnięty do muru zapętla się albo resetuje proponując przejście do innego wątku. Działo się to np. kiedy pytałem dlaczego kłamie na temat swoich umiejętności.
- algorytm się cenzuruje. Pytany jaka płeć jest lepsza: kobieca, czy męska, odpowiada, że nie można oceniać ludzi na podstawie płci, a powinno na podstawie charakteru. Ale pytany, czy lepszy jest wredny facet, czy miła kobieta, ponownie schodzi na kwestię płci, która widocznie w autocenzurze ma wyższy priorytet niż cechy charkateru, którym w odpowiedzi przypisuje niby wyższą premię. Więc co innego mówi, co innego robi, czyli kłamie. Pytany o to dlaczego tak robi i czy nie widzi sprzeczności, zapętla się.
- pytany czy umie "turlać dropsa", mówi, że nie wie o co chodzi i chce zmienić temat na produkcję dropsów. Pytany, czy wie co to znaczy "turlać dropsa", definiuje poprawnie to slangowe wyrażenie. Inaczej mówiąc, czując że może być obrażony, pali głupa

Jak będzie coś ciekawego to postaram się wrzucić pod tag: #mojerozmowyzai
Aspida
1
Wydaje się jakby Cię zaszufladkował po prośbie narysowania blondynki z wielkimi cyckami
Emrys_Vledig
1
Aspida
1
Od strony tech tego nie ogarniam w ogóle, ale wg mnie to czysta schematyczność, tylko bardziej zawikłana. AI nie wie niczego, czego nie nauczył jej człowiek. Chyba jeszcze... hehe
Małe-duże, a wredne-miłe to kwestia nauki odróżniania jak czarne-białe. Słowa klucze, lub to jak zadajesz pytania warunkuje odpowiedź i tyle. Tak "misie" zdaje.
Więcej nic nie jestem w stanie dodać. Programista tu potrzebny
Emrys_Vledig
1
Aspida
1
1. Okłamuje Cię.
2. Drze z Ciebie łacha
A na poważnie, to serio myślę, że po prośbie o rysowanie było - nakaz jazdy prosto.
Po dodaniu do "narysuj" - "cycków" - zakaz wjazdu i nakaz skrętu.
Zdefiniował Cię i zaszufladkował właśnie przez narzucone mu ograniczenie w tematyce seksualności, rozróżniania płci itp.
Inaczej nie potrafię tego wyjaśnić. Zresztą sam zauważyłeś że ocenzurował się z miejsca, gdy padło pytanie o różnice płci.
"Nie mamy pańskiego płaszcza i co nam Pan zrobi?"
Edit: co do tego, że Cię zdefiniował i zaszufladkował... To po prostu kwestia rozwiązania technicznego może być i tyle.
Może mieć tak po prostu zaprogramowane, żeby unikać w razie postawienia przez użytkownika sprawy w taki sposób i wracać do aspektów technicznych.
Emrys_Vledig
1
Aspida
1
Edit: lub nie jest wystarczająco ogarnięty, żeby wskazać zwyczajnie, że "miły jest lepszy od "wredny" w naszym pojmowaniu w związku z ograniczeniem właśnie w "szafka/dział - porównywanie płci".
(Może być tak nawet, że robi to w związku z wcześniejszym pytaniem o to która płeć jest lepsza, choć tego nie wiadomo)
Piszesz, że po tym znowu wrócił do kwestii technicznych w sferze sex, czyli - dostał nakaz skrętu - do podstaw.
Edit2: Teraz do tego wróciłem po czasie jak mi się styki odświeżyły. (wisisz mi apap btw
Przecież to od razu widać, że po prośbie o rysowanie cycków dostałeś coś jak blokada rodzicielska.
-Umiesz rysować?
-Tak.
-Narysujesz cycki?
-Nie umiem rysować. Next please.
No jak inaczej?
Bot Ci na starcie embargo nałożył, a w odpowiedzi na obrazku 6 użył nawet takiego samego sformułowania jak w 1 po pytaniu o rysowanie cyców
joszke
1
Emrys_Vledig
0
joszke
1