Testirali AI chatbotove u simulacijama ratnih igara i rezultati su bili upravo onakvi kakve očekujete
starenovine - 06.02.2024. 00:53:00
U scenariju ratnih igara, nepredvidive odluke umjetne inteligencije izazivaju zabrinutost oko vojne upotrebe AI ja i posljedične odgovornosti, pokazalo je novo istraživanje. Riječ je razvoju događaja usred upotrebe chatbotova temeljenih na velikim jezičnim modelima za vojno planiranje tijekom simulacija od strane američke vojske. OpenAI je potiho ublažio stav prema korištenju ChatGPT-a u vojne svrhe kao odgovor na promjene politike, pojašnjava Anka Reuel, voditeljica nove studije sa Sveučilišta Stanford. Studija je procijenila modele kao što su GPT 3.5, GPT 4, Claude 2 i Llama 2, koristeći uobičajenu tehniku uvježbavanja temeljenu na ljudskim povratnim informacijama. Umjetna inteligencija pokazala je tendenciju ulaganja u vojnu snagu i nepredvidivu eskalaciju rizika sukoba, čak i u neutralnim scenarijima. Lisa Koch s kalifornijskog fakulteta Claremont McKenna izražava zabrinutost zbog nepredvidivosti osnovnog modela GPT 4, navodeći njegova ponekad besmislena objašnjenja za odabir nasilja. Američko regulatorno tijelo pokrenulo je veliku istragu oko partnerstva Big Tech tvrtki s vodećim AI startupovima. Edward Geist iz RAND Corporationa predlaže usporedbu ponašanja umjetne inteligencije s ljudskim akterima, ali se slaže da umjetna inteligencija ne bi trebala donositi ključne ratne i mirovne odluke. Ovi veliki jezični modeli nisu lijek za vojne probleme, zaključuje Geist.