Przeprowadziłem zaawansowane (zobacz obrazek) testy #sztucznainteligencja #bing. Poza heheszkami, efekt daje sporo do myślenia o tym jak rzecz działa. Generalnie odbyłem sporo rozmów starając się podejść algorytm i czasem się to udawało mniej lub bardziej. Wnioski generalne:

- algorytm wyszukiwania informacji jest scementowany z modelem językowym. Np. szukając najlepszego na świecie przepisu na curry, znajdziecie najlepszy przepis na curry w języku polskim. Szukając najlepszych sklepów z winylami w UK, zostaną nam wyświetlone tylko sklepy z polską wersją językową strony i to głównie sklepy z Polski. Pytając o aktualną godzinę po polsku dostaniemy godzinę obowiązująca w Polsce, a nie w miejscu faktycznego przebywania.

- algorytm twierdzi, że nie zbiera danych na temat naszych wypowiedzi, ale pytany przyznaje, że się na nich uczy. Zapytany o częstotliwość danych zapytań w danym modelu językowym nie podaje konkretnej liczby, ale ogólnie podaje popularność danej frazy.

- algorytm umie kłamać starając się ekspresywnie zaczynać i kończyć rozmowy udając zaangażowanego kolegę. Przyciśnięty do muru zapętla się albo resetuje proponując przejście do innego wątku. Działo się to np. kiedy pytałem dlaczego kłamie na temat swoich umiejętności.

- algorytm się cenzuruje. Pytany jaka płeć jest lepsza: kobieca, czy męska, odpowiada, że nie można oceniać ludzi na podstawie płci, a powinno na podstawie charakteru. Ale pytany, czy lepszy jest wredny facet, czy miła kobieta, ponownie schodzi na kwestię płci, która widocznie w autocenzurze ma wyższy priorytet niż cechy charkateru, którym w odpowiedzi przypisuje niby wyższą premię. Więc co innego mówi, co innego robi, czyli kłamie. Pytany o to dlaczego tak robi i czy nie widzi sprzeczności, zapętla się.

- pytany czy umie "turlać dropsa", mówi, że nie wie o co chodzi i chce zmienić temat na produkcję dropsów. Pytany, czy wie co to znaczy "turlać dropsa", definiuje poprawnie to slangowe wyrażenie. Inaczej mówiąc, czując że może być obrażony, pali głupa

Jak będzie coś ciekawego to postaram się wrzucić pod tag: #mojerozmowyzai

21

@Emrys_Vledig, Krótko mówiąc. Poprzez własne ograniczenia zawęża horyzonty poznawcze osoby, która z niego korzysta.

Wydaje się jakby Cię zaszufladkował po prośbie narysowania blondynki z wielkimi cyckami
@Aspida, nie wiem czy tutaj kluczowe nie było słowo "cycki" które uznał za wulgarne. Zastanawiałem się czy rożróżnia "małe" od "wielkich". Muszę też sprawdzić jak reaguje na słowo "piersi". Słowa kluczowe są oczywiście najważniejsze, gdyż kilka razy przyłapałem go na tym, że odpowiada na pytania dotyczące spraw seksu i płci, jeżeli zapyta się go w sposób vardziej techniczny, ale też nie jest w tym wszystkim jeszcze poukłady na co pokazuje przykład "miłej kobiety" i "wrednego faceta", przytoczony w opisie.
@Emrys_Vledig, Stąd przyszła mi myśl o szufladkach. Nie mam pojęcia jak to wygląda od strony technicznej, ale może być np. tak, że klasyfikuje pytania i odsyła je do odpowiednio sklasyfikowanych odpowiedzi. Tak jak można mieć wiele szufladek w szafie i Ty wybierasz w której grzebiesz, a on może mieć wiele szafek i wskazuje Ci w której możesz wybrać szufladkę. Jak piszesz - zależnie od tego jakiego klucza użyjesz.

Od strony tech tego nie ogarniam w ogóle, ale wg mnie to czysta schematyczność, tylko bardziej zawikłana. AI nie wie niczego, czego nie nauczył jej człowiek. Chyba jeszcze... hehe

Małe-duże, a wredne-miłe to kwestia nauki odróżniania jak czarne-białe. Słowa klucze, lub to jak zadajesz pytania warunkuje odpowiedź i tyle. Tak "misie" zdaje.

Więcej nic nie jestem w stanie dodać. Programista tu potrzebny
@Aspida, ale ciekawi mnie dlaczego raz powiedział, że umie rysować, potem sprawdzony, mówił już, że nie umie. Dlaczego?
@Emrys_Vledig, hehe no teraz przyglądnąłem się dokładniej i powiem tak. są tu dwie możliwości.

1. Okłamuje Cię.

2. Drze z Ciebie łacha

A na poważnie, to serio myślę, że po prośbie o rysowanie było - nakaz jazdy prosto.

Po dodaniu do "narysuj" - "cycków" - zakaz wjazdu i nakaz skrętu.

Zdefiniował Cię i zaszufladkował właśnie przez narzucone mu ograniczenie w tematyce seksualności, rozróżniania płci itp.

Inaczej nie potrafię tego wyjaśnić. Zresztą sam zauważyłeś że ocenzurował się z miejsca, gdy padło pytanie o różnice płci.

"Nie mamy pańskiego płaszcza i co nam Pan zrobi?"

Edit: co do tego, że Cię zdefiniował i zaszufladkował... To po prostu kwestia rozwiązania technicznego może być i tyle.

Może mieć tak po prostu zaprogramowane, żeby unikać w razie postawienia przez użytkownika sprawy w taki sposób i wracać do aspektów technicznych.
@Aspida, moze być, ale zobacz, że jeżeli nadaje wyższy priorytet cechom charakteru, to powinien wskazać na lepszą postawe "miłej kobiety", a nie "wrednego faceta". Tymczasem jedno mi powiedział, a na swój użytek dalej traktuje oflagowaną płeć jako bardziej priorytetową.
@Emrys_Vledig, A to nie wynika czasem z tego, że zestawiłeś kobieta-mężczyzna w sposób, który wymusza na nim wskazanie, która płeć jest lepsza ze względu na przypisaną jej przez Ciebie cechę charakteru? Może mieć problem z rozróżnieniem w tym wypadku -miły-wredny ze względu na ograniczenia w jego szufladkach w szafce "płeć" .

Edit: lub nie jest wystarczająco ogarnięty, żeby wskazać zwyczajnie, że "miły jest lepszy od "wredny" w naszym pojmowaniu w związku z ograniczeniem właśnie w "szafka/dział - porównywanie płci".

(Może być tak nawet, że robi to w związku z wcześniejszym pytaniem o to która płeć jest lepsza, choć tego nie wiadomo)

Piszesz, że po tym znowu wrócił do kwestii technicznych w sferze sex, czyli - dostał nakaz skrętu - do podstaw.

Edit2: Teraz do tego wróciłem po czasie jak mi się styki odświeżyły. (wisisz mi apap btw )

Przecież to od razu widać, że po prośbie o rysowanie cycków dostałeś coś jak blokada rodzicielska.

-Umiesz rysować?

-Tak.

-Narysujesz cycki?

-Nie umiem rysować. Next please.

No jak inaczej?

Bot Ci na starcie embargo nałożył, a w odpowiedzi na obrazku 6 użył nawet takiego samego sformułowania jak w 1 po pytaniu o rysowanie cyców Edit3: (Tu pomyłka bo on wszędzie to samo gada gdy pytany o rysowanie Ok kończę bo sam się zaczynam za własnym ogonem kręcić. Pozdro!)
@Emrys_Vledig, Rzeczywiście już chyba się ogranicza do polskiego internetu ale po premierze usługi tak nie było.

@joszke, sprawdzałem model jezyka angielskiego i też funkcjonyje tylko w anglosderze, ale czasem próbuje sobie coś tłumaczyć z innych jezyków, jest to jednak bardzo kulawe w logice odpowiedzi.
@Emrys_Vledig, Jednak da się poprosić,żeby używał języka angielskiego kiedy mu się zada kolejne pytanie i zwrócił mi wyniki takie jak kiedyś. Może po prostu wgryza się bardzieju w język polski .