Afsløring af det vilde potentiale – og problemer – ved NPC AI-samtaler i GTA 5.

At patruljere i Los Santos gader i Grand Theft Auto 5, mens du er i stand til at tale frit til indbyggerne, kan du lide det? Hvad hvis de som bonus svarede dig med en personlig og autentisk dialog? Det er målet med Sentient Streets, en ny historiebaseret GTA 5-mod skabt af modveteranen Block, tilgængelig nu fra NexusMods.

En total fordybelse

I denne mod påtager spillere sig rollen som en ung politibetjent, der efterforsker en sammensværgelse i Los Santos vedrørende fremkomsten af ​​kunstig intelligens. I den virkelige verden er det AI, der driver samtaler med NPC’er (ikke-spillerfigurer) i hele spilverdenen.

Et spring fremad for videospil

“Der var altid denne idé om at skabe en virtuel verden som GTA, men hvor du også kan interagere og chatte med NPC’er som rigtige mennesker,” fortæller Bloc til Eurogamer. Han har tidligere arbejdet på mods til Bannerlord og Skyrim, der brugte AI-drevne sprogmodeller, før han så kritik om fremtiden for denne teknologi.

Bloc spiller på frygten for AI i moddens historie, hvor spilleren står over for en dødbringende kult, der tilbeder en usynlig AI. I processen engagerer han sig i interaktive samtaler i realtid med omkring 30 AI-drevne NPC’er.

Unikke samtaler drevet af AI

Samtaler mellem NPC’er i Sentient Streets drives af Inworlds Character Engine, som giver Block mulighed for at bruge flere Early Access-funktioner. Inworld er et værktøj, der driver AI-aktiverede NPC’er og lover karakterer “i stand til menneskelig udtryk på flere måder” ifølge sin hjemmeside. Generelt giver værktøjet udviklere mulighed for at skabe karakterer ved at udfylde parametre; tale fungerer frit derfra og inkorporerer tekst-til-tale og tekst-til-tale teknologi fra virksomheden ElevenLabs.

En betagende fordybende oplevelse

Modderen lagde en video af Sentient Streets på YouTube for at ledsage modudgivelsen, og resultaterne er forbløffende. Spillere nærmer sig specifikke NPC’er, og efter at have fået deres opmærksomhed holder de en knap nede for at begynde at tale i en mikrofon. AI’en reagerer derefter frit. Først vælger Block en officerspartner ved at tale og spørge deres navn og historie; senere taler han med en mistænkt på et gerningssted og kan frit spille for information.

Et lovende værktøj

Det er selvfølgelig ikke perfekt. AI’en er langsom til at behandle samtaler, laver nogle gange fejl og gentager sig selv nogle gange. Men med forbedringer er potentialet for denne type værktøj svimlende.

Block-modden er blevet downloadet over 3000 gange på en uge. Så er AI’en kommet med nogle mærkelige eller sjove svar, når den bruges i stor skala?

“Selv da jeg testede mod’en, fik AI’en mig til at grine mange gange med sine smarte svar eller uventede reaktioner,” siger Bloc. “Jeg så et par streams af YouTubere spille mod. I en sjov samtale anklagede en YouTuber sin partner for en forbrydelse, han havde begået, men AI-kaptajnen fangede løgnen og anklagede ham for at være en løgner. I en anden samtale chattede en YouTuber med et skørt sektmedlem og drev ham til vanvid ved at stille helt off-topic spørgsmål for at bringe ham ud af balance.

“Nogle gange finder jeg det virkelig overraskende at høre AI’en give rigtig smarte svar på mine åbenlyse spørgsmål, og det er altid sjovt at se, hvordan de vender roller. »

Bekymringer om brugen af ​​kunstig intelligens

Selvfølgelig forbliver brugen af ​​AI et ømtåleligt emne. Ubisoft afslørede et AI-værktøj til at hjælpe med manuskriptskrivning tidligere i år, specifikt til brug med NPC’er, hvilket vækker frygt for, at det kunne stjæle arbejde fra yngre medlemmer af holdet. Mange skuespillere er i mellemtiden skeptiske over for AI, især stigningen af ​​deepfake AI-baserede mods, hvor stemmer bruges uden tilladelse.

Inworld bruger et stemmebibliotek fra ElevenLabs og ansætter ikke stemmeskuespillere direkte. Men ElevenLabs er et AI-baseret kloningsværktøj, der allerede er kommet under beskydning fra bekymrede spillere. Dets brugsbetingelser specificerer, at brugerne enten er skabere og ejere af de filer, der bruges til at generere stemme-AI, eller har skriftligt samtykke fra hver identificerbar person i filerne. Men det er stadig uklart, hvor ElevenLabs’ stemmedata kommer fra.

Etiske overvejelser at tage

“Studioer skal bestemt være forsigtige med, hvordan de bruger AI,” fortsætter Bloc, især når det kommer til sikkerheds- og privatlivsaspekter.

“Inworld har slækket på sikkerhedsfunktionerne i sprogmodellerne, fordi det ikke ville give mening for et medlem af en væbnet kult at være meget sød og hjælpsom, når han taler med dig,” forklarer Bloc. “Du ville forvente, at denne person er aggressiv, fornærmer dig og har en adfærd, der er svær at finde fælles fodslag med. Men denne afslapning [des règles] fungerer måske ikke altid godt. »

Udviklere skal være omhyggelige med at finde en balance mellem autentisk karakterisering af karakterer og tilstedeværelsen af ​​en giftig AI-stemme, fortsætter han. “At have en meget streng sprogmodel er ikke sjovt, men at have en frygtelig giftig sprogmodel i et videospil er ikke sjovt eller sikkert,” slutter Bloc. “Denne balance skal omhyggeligt justeres baseret på…”

Kilde: www.bing.com