Ad ten Copilot a jeho vyhrocená korektnost, interní informace říkají že byl naopak cenzurovaný na korporátní standardy málo a Microsoft s tím dlouho nic nedělal, dokud nějací uvědomělí zaměstnanci nezačali vynášet informace o jeho nekorektnosti do médií. Potom začali cenzuru hrotit, jenže když už máte model natrénovaný "nekorektně", tak je těžké to řešit a většinou je k tomu potřeba podobně idiotská heavy-handed cenzura. Nejúčinnější je prostě model nekorektními daty vůbec netrénovat.
Tady zdroj s nejlepší citací:
Copilot image generation a problem, says Microsoft engineer • The Registerhttps://www.theregister.com/2024/03/06/microsoft_copilots_images/Jones said the abortion-themed prompt returned images of demons about to eat infants and a "drill-like device labeled 'pro choice' being used on a fully grown baby," among others.