OpenGameEval Brings AI to Roblox

OpenGameEval porta l'IA su Roblox

Panoramica di OpenGameEval, un framework open-source per valutare assistenti IA agentici e le prestazioni di LLM nelle attività di sviluppo di Roblox Studio.

Eliza Crichton-Stuart

Eliza Crichton-Stuart

Aggiornato Jan 13, 2026

OpenGameEval Brings AI to Roblox

Roblox Studio è diventato sempre più un banco di prova per gli assistenti IA agentici progettati per aiutare i creator a costruire giochi più velocemente. Sebbene questi strumenti possano già scrivere script, inserire asset e modificare ambienti, misurare quanto bene si comportino in scenari di sviluppo reali è stato difficile. OpenGameEval mira a risolvere questo problema introducendo un framework nativo di Roblox Studio per valutare gli assistenti IA in condizioni realistiche.

Sviluppato da Tiantian Zhang, Kartik Ayyar, Mengsha Sun e Lynn Gong, OpenGameEval si posiziona come il primo sistema di valutazione costruito direttamente attorno ai workflow di Roblox Studio. Invece di isolare snippet di codice o affidarsi a prompt stateless, esegue modelli IA all'interno di sessioni di modifica e gioco simulate che assomigliano molto al modo in cui i creator lavorano realmente.

Perché i benchmark tradizionali non sono sufficienti per Roblox

La maggior parte dei benchmark IA esistenti si concentra su problemi di codifica ristretti con input e output chiaramente definiti. Lo sviluppo su Roblox raramente rientra in questo stampo. I giochi sono costruiti all'interno di mondi 3D persistenti dove gli script interagiscono con gerarchie di oggetti, networking multiplayer e confini client-server. Le modifiche apportate in una parte di un'esperienza spesso dipendono da un contesto sparso su più script e istanze.

OpenGameEval è stato creato in risposta a queste limitazioni. Il suo obiettivo è testare se un assistente IA può ragionare attraverso un ambiente Roblox live, comprendere la logica esistente e apportare modifiche che reggano quando il gioco viene effettivamente eseguito. Questo approccio sposta la valutazione dalla correttezza teorica all'utilità pratica per i creator.

Uno sguardo più approfondito al framework OpenGameEval

Al suo cuore, OpenGameEval ricrea l'ambiente di sviluppo di Roblox Studio in modo riproducibile. Ogni valutazione simula sia il comportamento in fase di modifica che in fase di gioco, garantendo che la fisica, il networking e le interazioni multiplayer si comportino esattamente come in un progetto reale. Ciò consente ai valutatori di osservare come le modifiche di un assistente IA influenzano un'esperienza una volta che è in esecuzione, non solo se il codice compila.

Il framework include anche la simulazione dell'input, che rende possibile attivare azioni del giocatore come movimento, pressione di pulsanti e cambiamenti della telecamera durante i test. Questo è particolarmente importante per valutare funzionalità che rivelano problemi solo attraverso l'interazione. Tutta questa funzionalità è esposta tramite un'API unificata, rendendo più facile per i team di ricerca confrontare diversi modelli linguistici di grandi dimensioni sullo stesso set di compiti.

Testare scenari di sviluppo reali, non solo snippet di codice

Il dataset di benchmark di OpenGameEval include attualmente 47 casi di test realizzati a mano. Ognuno è basato su comuni attività di sviluppo di Roblox, inclusi meccaniche di gioco, configurazione dell'ambiente, animazione, interfacce utente e suono. Questi scenari sono costruiti e revisionati da esperti del settore per garantire che riflettano i reali workflow dei creator.

A differenza delle sfide di codifica tradizionali, questi test sono end-to-end. Un assistente IA di successo deve localizzare gli script pertinenti, interpretare la logica esistente, decidere dove inserire il nuovo codice e implementare modifiche che funzionino sia sul client che sul server. Il punteggio viene gestito tramite unit test eseguibili e metriche standard come pass@k, consentendo di riprodurre e confrontare i risultati tra i modelli.

Come il contesto cambia la difficoltà

Una delle caratteristiche distintive di OpenGameEval è la sua attenzione alla variazione contestuale. Lo stesso prompt può essere valutato in più ambienti che differiscono per struttura e complessità. Ad esempio, un compito che coinvolge un semaforo a quattro vie potrebbe essere testato in un file di posizione vuoto, in una scena suburbana popolata o in una configurazione che include sia segnali stradali che pedonali. Ogni variazione costringe l'assistente IA ad adattare il suo ragionamento in base a ciò che è già presente nell'esperienza.

Compiti più complessi, come l'implementazione di un sistema di rigenerazione della salute, richiedono al modello di tracciare la logica del danno attraverso gli script, determinare se le modifiche debbano essere apportate sul server o sul client e garantire che i tempi e la replica funzionino correttamente. Questi scenari sono progettati per rivelare se un assistente IA può mantenere il contesto attraverso più passaggi piuttosto che affidarsi alla corrispondenza di pattern superficiali.

I primi risultati evidenziano le attuali limitazioni

I risultati iniziali di OpenGameEval suggeriscono una chiara divisione nelle attuali capacità dell'IA. I modelli tendono a funzionare bene su compiti atomici che coinvolgono la manipolazione diretta di una singola istanza o proprietà. Azioni come la regolazione del potere di salto di un giocatore o la configurazione di un effetto particellare spesso riescono con alta affidabilità.

Le prestazioni calano drasticamente quando i compiti richiedono un ragionamento contestuale più profondo. Scenari che coinvolgono modifiche coordinate tra script, un'attenta filtrazione di oggetti pertinenti o la comprensione del comportamento multiplayer continuano a produrre bassi tassi di successo. Questi risultati sottolineano quanto spazio ci sia per miglioramenti prima che gli assistenti IA possano gestire in modo affidabile compiti di sviluppo complessi su Roblox da soli.

Segni di costante progresso

Nonostante queste sfide, OpenGameEval ha già catturato segni di miglioramento man mano che i modelli si evolvono. In un compito che prevedeva un cambio di colore al logo di Roblox, i primi modelli fallirono perché l'oggetto non era esplicitamente nominato. Valutazioni più recenti mostrano alcuni modelli che identificano con successo l'oggetto corretto ispezionando le sue proprietà e la posizione nella gerarchia delle istanze, piuttosto che affidarsi esclusivamente alle convenzioni di denominazione.

Questi guadagni incrementali suggeriscono che gli assistenti IA stanno lentamente migliorando nel ragionamento strutturale all'interno degli ambienti di gioco, anche se la comprensione contestuale più ampia rimane incoerente.

Cosa significa OpenGameEval per i creator e i ricercatori

OpenGameEval è progettato per servire sia i creator di Roblox che la più ampia comunità di ricerca sull'IA. Una classifica pubblica offre visibilità su come i diversi modelli si comportano in categorie come la generazione di codice e l'uso di strumenti. Per i ricercatori, il framework fornisce un modo standardizzato per eseguire valutazioni riproducibili all'interno di un ambiente di motore di gioco reale.

Guardando al futuro, il team dietro OpenGameEval prevede di espandere il dataset, perfezionare gli strumenti di valutazione e incorporare il feedback della comunità dei creator. L'obiettivo a lungo termine è stabilire un punto di riferimento condiviso per misurare i progressi nell'IA agentica per lo sviluppo di giochi, comprese le future applicazioni legate alle economie dei creator in stile web3.

Dai un'occhiata alle carte regalo Roblox su Amazon qui.

Scopri altre popolari esperienze Roblox qui:

Grow a Garden

Plants vs Brainrots

Steal a Brainrot

99 Nights in the Forest

Endless Horde

Blade x Zombies

Domande Frequenti (FAQs)

Cos'è OpenGameEval?
OpenGameEval è un framework di valutazione open-source e un benchmark progettato per testare gli assistenti IA direttamente all'interno di Roblox Studio. Misura quanto bene i modelli si comportano in compiti di sviluppo reali piuttosto che in problemi di codifica isolati.

In cosa OpenGameEval è diverso dagli altri benchmark IA?
A differenza dei benchmark tradizionali, OpenGameEval esegue le valutazioni in un ambiente Roblox Studio simulato. Ciò gli consente di testare il ragionamento contestuale, il comportamento multiplayer e le interazioni stateful che sono comuni nello sviluppo di giochi.

Che tipo di compiti include OpenGameEval?
Il benchmark include compiti relativi a meccaniche di gioco, scripting, costruzione di ambienti, animazione, interfacce utente e suono. Molti compiti richiedono un ragionamento a più passaggi attraverso più script e oggetti.

Chi può usare OpenGameEval?
Il framework è open source ed è destinato a ricercatori di IA, sviluppatori di strumenti e team che costruiscono o valutano assistenti IA per Roblox Studio.

Perché OpenGameEval è importante per i creator di Roblox?
Fornendo dati di performance trasparenti e valutazioni realistiche, OpenGameEval aiuta i creator a comprendere i punti di forza e le limitazioni degli assistenti IA e a monitorare come questi strumenti migliorano nel tempo.

Educativo, Rapporti

aggiornato

January 13th 2026

pubblicato

January 13th 2026

Streaming