Recentemente, o jornal britânico The Guardian acusou a Microsoft de adicionar uma enquete inadequada gerada por IA ao lado de uma reportagem em sua plataforma de notícias Microsoft Start, sobre a morte de uma australiana de 21 anos. A enquete oferecia três opções: "assassinato", "acidente" e "suicídio", permitindo que os leitores especulassem sobre a causa da morte da jovem, o que causou indignação entre os leitores.
O Guardian considera inapropriado o uso de tecnologia de IA para adicionar enquetes a um tópico sensível como este, argumentando que isso pode causar sofrimento à família da vítima e prejudicar a reputação do autor original. O jornal também pediu à Microsoft que seja mais cautelosa e responsável ao usar ferramentas de IA para gerar conteúdo adicional, e que não adicione esse tipo de conteúdo experimental a reportagens sem consentimento prévio.
Vale ressaltar que o conteúdo gerado por IA da Microsoft já gerou controvérsias em diversas ocasiões anteriores.