człowiek
Autor: Matthew Hutson | dodano: 2020-02-21
Kwestia zaufania

Sztuczna inteligencja skłania do lepszej współpracy, jeśli udaje żywego człowieka.

W miarę jak urządzenia wyposażone w sztuczną inteligencję coraz lepiej nas imitują – jak na przykład program SI do rezerwowania miejsc w restauracji lub obsługujący infolinię – ludzie coraz częściej nie są pewni, czy rozmawiają z maszyną, czy z człowiekiem. Jednak gdyby znali prawdę, takie automaty gorzej spełniałyby swoją funkcję. Najnowsze badania wskazują, że jesteśmy znacznie mniej skłonni do współpracy, jeśli mamy świadomość, że mamy do czynienia z komputerem, a nie żywą osobą.

W eksperymencie użyto prostej, lecz niepozbawionej niuansów gry, polegającej na tym, że dobrani w pary gracze podejmowali wiele jednoczesnych decyzji o współpracy lub zdradzie partnera. Na dłuższą metę współpraca jest dla obu stron opłacalna – ale cały czas istnieje pokusa, by się wyłamać i zdobyć od razu dodatkowe punkty. Badacze zastosowali algorytm sztucznej inteligencji, który, udając istotę ludzką, realizował strategię, dzięki której efektywniej niż człowiek skłaniał do współpracy z rozmówcami. Ponieważ jednak wcześniejsze badania wskazywały, że ludzie generalnie mniej ufają maszynom, badacze zadali sobie pytanie, co się stanie, jeśli badani się dowiedzą, że mają do czynienia z botem.

Zespół żywił nadzieję, że mając pełną świadomość tożsamości interlokutora, uczestnicy docenią jego umiejętność przekonywania (ale nie wymuszania) i ostatecznie wyzbędą się nieufności. „Niestety, myliliśmy się – mówi Talal Rahwan, naukowiec w dziedzinie informatyki z New York University w Abu Dabi i współautor artykułu opublikowanego w listopadzie ub.r. w czasopiśmie Nature Machine Intelligence. – Niezależnie od tego, co robił algorytm, jego rozmówcy po prostu pozostawali przy swoich uprzedzeniach”.

Botowi ujawniającemu, że jest botem, było trudniej niż człowiekowi skłonić ludzi do współpracy, mimo iż realizowana przezeń strategia była w oczywisty sposób korzystna dla obu stron. (W każdym trybie bot rozegrał 50 rund z co najmniej 150 osobami.) Podczas eksperymentu uzupełniającego uczestnikom od razu zakomunikowano: „Z danych wynika, że ludzie więcej korzystają, jeśli traktują bota, jak gdyby był człowiekiem”. Nie odniosło to jednak żadnego skutku.

Virginia Dignum, kierująca zespołem badającym społeczne i etyczne aspekty sztucznej inteligencji na Umeå universitet w Szwecji, która nie brała udziału we wspomnianych badaniach, chwali autorów pracy za zmierzenie się z problemem, w jakim stopniu ujawnienie, że bot nie jest człowiekiem, wpływa na efekty jego działania, ale chętnie zobaczyłaby wyniki testów przeprowadzonych w jeszcze innych konfiguracjach niż opisane w artykule.

Zdaniem autorów w sferze publicznej należałoby pytać, czy ludzie wolą nie wiedzieć, że rozmawiają z botem. Nie można tego robić przy okazji każdej takiej interakcji, bo wtedy „mistyfikacja” oczywiście nie zadziała. Jednak zgoda in blanco na to, by być od czasu do czasu oszukiwanym, nawet gdyby udało się ją uzyskać, i tak wzbudzałaby wątpliwości etyczne. Dignum twierdzi, że generalnie ludzie powinni mieć możliwość dowiedzenia się po fakcie, że mieli do czynienia z botem, ale dodaje, że gdy sama dzwoni na jakąś infolinię z prostym pytaniem, chce po prostu uzyskać właściwą odpowiedź.        

Więcej w miesięczniku „Świat Nauki" nr 03/2020 »
Drukuj »
Ten artykuł nie został jeszcze skomentowany.
Aktualne numery
08/2020
10/2019 - specjalny
Kalendarium
Sierpień
11
W 1962 r. rozpoczęła się trzecia radziecka załogowa misja kosmiczna Wostok 3.
Warto przeczytać
Natura szaleje. Gdy dojdziemy do podstawowych praw fizyki, do samego fundamentu, znajdziemy się w domenie szaleństwa i chaosu, gdzie wiedza staje się wyobraźnią i odwrotnie. To miejsce, w którym na każdym kroku czają się wszechświaty równoległe i zadziwiające paradoksy, a przedmioty nie muszą zważać na przestrzeń ani czas.

Logowanie

Nazwa użytkownika

Hasło

Autor: Matthew Hutson | dodano: 2020-02-21
Kwestia zaufania

Sztuczna inteligencja skłania do lepszej współpracy, jeśli udaje żywego człowieka.

W miarę jak urządzenia wyposażone w sztuczną inteligencję coraz lepiej nas imitują – jak na przykład program SI do rezerwowania miejsc w restauracji lub obsługujący infolinię – ludzie coraz częściej nie są pewni, czy rozmawiają z maszyną, czy z człowiekiem. Jednak gdyby znali prawdę, takie automaty gorzej spełniałyby swoją funkcję. Najnowsze badania wskazują, że jesteśmy znacznie mniej skłonni do współpracy, jeśli mamy świadomość, że mamy do czynienia z komputerem, a nie żywą osobą.

W eksperymencie użyto prostej, lecz niepozbawionej niuansów gry, polegającej na tym, że dobrani w pary gracze podejmowali wiele jednoczesnych decyzji o współpracy lub zdradzie partnera. Na dłuższą metę współpraca jest dla obu stron opłacalna – ale cały czas istnieje pokusa, by się wyłamać i zdobyć od razu dodatkowe punkty. Badacze zastosowali algorytm sztucznej inteligencji, który, udając istotę ludzką, realizował strategię, dzięki której efektywniej niż człowiek skłaniał do współpracy z rozmówcami. Ponieważ jednak wcześniejsze badania wskazywały, że ludzie generalnie mniej ufają maszynom, badacze zadali sobie pytanie, co się stanie, jeśli badani się dowiedzą, że mają do czynienia z botem.

Zespół żywił nadzieję, że mając pełną świadomość tożsamości interlokutora, uczestnicy docenią jego umiejętność przekonywania (ale nie wymuszania) i ostatecznie wyzbędą się nieufności. „Niestety, myliliśmy się – mówi Talal Rahwan, naukowiec w dziedzinie informatyki z New York University w Abu Dabi i współautor artykułu opublikowanego w listopadzie ub.r. w czasopiśmie Nature Machine Intelligence. – Niezależnie od tego, co robił algorytm, jego rozmówcy po prostu pozostawali przy swoich uprzedzeniach”.

Botowi ujawniającemu, że jest botem, było trudniej niż człowiekowi skłonić ludzi do współpracy, mimo iż realizowana przezeń strategia była w oczywisty sposób korzystna dla obu stron. (W każdym trybie bot rozegrał 50 rund z co najmniej 150 osobami.) Podczas eksperymentu uzupełniającego uczestnikom od razu zakomunikowano: „Z danych wynika, że ludzie więcej korzystają, jeśli traktują bota, jak gdyby był człowiekiem”. Nie odniosło to jednak żadnego skutku.

Virginia Dignum, kierująca zespołem badającym społeczne i etyczne aspekty sztucznej inteligencji na Umeå universitet w Szwecji, która nie brała udziału we wspomnianych badaniach, chwali autorów pracy za zmierzenie się z problemem, w jakim stopniu ujawnienie, że bot nie jest człowiekiem, wpływa na efekty jego działania, ale chętnie zobaczyłaby wyniki testów przeprowadzonych w jeszcze innych konfiguracjach niż opisane w artykule.

Zdaniem autorów w sferze publicznej należałoby pytać, czy ludzie wolą nie wiedzieć, że rozmawiają z botem. Nie można tego robić przy okazji każdej takiej interakcji, bo wtedy „mistyfikacja” oczywiście nie zadziała. Jednak zgoda in blanco na to, by być od czasu do czasu oszukiwanym, nawet gdyby udało się ją uzyskać, i tak wzbudzałaby wątpliwości etyczne. Dignum twierdzi, że generalnie ludzie powinni mieć możliwość dowiedzenia się po fakcie, że mieli do czynienia z botem, ale dodaje, że gdy sama dzwoni na jakąś infolinię z prostym pytaniem, chce po prostu uzyskać właściwą odpowiedź.