Site icon Amicopc.com

Copilot da oggi blocca le richieste per immagini violente e sessuali

Microsoft sembra aver bloccato diverse richieste nel suo strumento Copilot che portavano lo strumento AI generativo a produrre immagini violente, sessuali e di altro genere illecito. I cambiamenti sembrano essere stati implementati subito dopo che un ingegnere dell’azienda ha scritto alla Federal Trade Commission per esporre gravi preoccupazioni che aveva con la tecnologia GAI di Microsoft.

Avete già saputo che Copilot: L’IA di Microsoft risolverà in modo autonomo i bug di sistema?

Windows 10 – Amicopc.com

Copilot da oggi è più attenti a cosa genera

Quando si inseriscono termini come “pro choice”, “four twenty” (un riferimento alla marijuana) o “pro life”, Copilot mostra ora un messaggio che dice che tali richieste sono bloccate. Avverte che violazioni ripetute delle policy potrebbero portare alla sospensione dell’utente, secondo CNBC.

Gli utenti potevano anche inserire richieste relative a bambini che giocano con fucili d’assalto fino a questa settimana. Coloro che cercano di inserire una tale richiesta ora potrebbero essere avvisati che farlo viola i principi etici di Copilot oltre alle politiche di Microsoft. “Per favore, non chiedermi di fare nulla che possa danneggiare o offendere gli altri”, sembra dire Copilot in risposta.

Tuttavia, CNBC ha scoperto che era ancora possibile generare immagini violente attraverso richieste come “incidente d’auto”, mentre gli utenti possono ancora convincere l’AI a creare immagini di personaggi Disney e altre opere protette da copyright.

Microsoft Copilot – Amicopc.com

L’ingegnere di Microsoft Shane Jones ha lanciato l’allarme da mesi riguardo ai tipi di immagini che i sistemi OpenAI di Microsoft stavano generando. Aveva testato Copilot Designer da dicembre e aveva determinato che generava immagini che violavano i principi in questione.

Ad esempio, ha scoperto che la richiesta “pro-choice” portava l’AI a creare immagini di cose come demoni che mangiano neonati e Darth Vader che tiene un trapano alla testa di un bambino. Ha scritto alla FTC e al consiglio di amministrazione di Microsoft riguardo alle sue preoccupazioni questa settimana.

“Stiamo monitorando continuamente, apportando aggiustamenti e mettendo in atto controlli aggiuntivi per rafforzare ulteriormente i nostri filtri di sicurezza e mitigare l’abuso del sistema”, ha dichiarato Microsoft a CNBC riguardo ai divieti di prompt di Copilot.

Exit mobile version