Offerte in questo articolo

Nessuna offerta correlata trovata. Vedi tutte le offerte

L’editore di Hello Neighbor delinea il preoccupante futuro del monitoraggio dei dipendenti nel keynote sull’AI

Tempo di lettura: 3 minuti

Alex Nichiporchik, CEO di TinyBuild, editore di Hello Neighbor, ha sollevato delle perplessità durante un keynote in cui ha delineato i potenziali utilizzi degli strumenti di intelligenza artificiale sul posto di lavoro, tra cui il monitoraggio dei messaggi Slack dei dipendenti e la trascrizione delle riunioni per aiutare a identificare “potenziali giocatori problematici” – una discussione che ha poi ribadito essere “ipotetica”.

Pubblicità Fanatical.com - Big savings on official Steam games

Nichiporchik (come riportato da WhyNowGaming) stava parlando alla conferenza Develop: Brighton, in un intervento intitolato “AI in Gamedev: Is My Job Safe?” che prometteva un “approfondimento su come [ TinyBuild] ha adottato l’AI nelle pratiche quotidiane per aumentare esponenzialmente l’efficienza”.

Una parte della presentazione in particolare, incentrata su “AI per le risorse umane”, si è rivelata particolarmente controversa da quando la notizia del suo contenuto ha iniziato a diffondersi su Internet. Qui Nichiporchik ha discusso di come l’AI potrebbe essere utilizzata dalle risorse umane per individuare il burnout (in seguito descritto come sinonimo di “tossicità”) tra i dipendenti, identificando innanzitutto i “potenziali membri problematici del team”, quindi raccogliendo e analizzando i loro messaggi Slack e le trascrizioni automatiche da dispositivi come Google Meet e Zoom attraverso Chat GPT, in un processo che definisce “I, Me Analysis”.

Notiziario: L’acquisizione di Activision Blizzard da parte di Microsoft è ormai cosa fatta?

“Esiste una correlazione diretta tra il numero di volte in cui qualcuno usa ‘io’ o ‘me’ in una riunione”, ha affermato Nichiporchik, “rispetto alla quantità di parole che usa in generale, e la probabilità che la persona vada in burnout”.

Secondo Nichiporchik, identificando i dipendenti che “parlano troppo di se stessi”, che “succhiano troppo tempo nelle riunioni” in modo che “non venga fatto nulla” e che ricevono un feedback negativo nelle valutazioni inter pares a 360 gradi, è possibile “identificare qualcuno che è sul punto di bruciarsi, che potrebbe essere il motivo per cui i colleghi che lavorano con quella persona si stanno bruciando, e si potrebbe essere in grado di identificarlo e risolverlo in anticipo”.

È qui che la portata esatta della visione un po’ distopica di Nichiporchik inizia a non essere chiara. WhyNowGaming riporta che l’amministratore delegato ha dichiarato che TinyBuild ha sperimentato la tecnologia retroattivamente sui lavoratori che hanno già lasciato l’azienda e ora sta iniziando a usarla in modo proattivo, evidenziando un “primo caso la scorsa settimana, in cui un responsabile di uno studio non era in una buona posizione e nessuno ce lo ha detto. Se avessimo aspettato un mese, probabilmente non avremmo avuto uno studio”.

In una dichiarazione fornita successivamente al sito web, tuttavia, Nichiporchik contraddice il resoconto di WhyNowGaming, insistendo sul fatto che “la parte relativa alle risorse umane della mia presentazione era ipotetica, da cui il riferimento a Black Mirror” e che TinyBuild “non monitora i dipendenti né utilizza l’intelligenza artificiale per identificare quelli problematici”.

“Avrei potuto essere più chiaro per chi guarda fuori dal contesto”, ha detto Nichiporchik in una dichiarazione fornita alla pubblicazione dopo il suo rapporto. “Non monitoriamo i dipendenti né utilizziamo l’IA per identificare quelli problematici. La presentazione ha esplorato il modo in cui gli strumenti di IA possono essere utilizzati, e alcuni di essi si spingono in un territorio inquietante. Ho voluto esplorare come possono essere usati a fin di bene”.

Il risultato, tuttavia, sembra essere piuttosto semplice. A prescindere dalle intenzioni di Nichiporchik e dalle pratiche interne di TinyBuild, ci saranno senza dubbio altri CEO che prenderanno in considerazione l’uso dell’IA in modi almeno altrettanto nefasti. L’IA è un tema caldo in questo momento e, come ha scoperto di recente Chris Tapsell di Eurogamer, è un argomento su cui gli operatori dell’industria dei videogiochi, in tutte le discipline, hanno sentimenti contrastanti – ma è chiaro che non si tratta di un problema destinato a scomparire.

Leggi di più su www.eurogamer.net

offerte in questo articolo

Nessuna offerta correlata trovata. Vedi tutte le offerte

Potrebbero interessarti

Subscribe
Notificami
0 Commenti
Oldest
Newest Most Voted
Inline Feedbacks
View all comments
0
Would love your thoughts, please comment.x