Deloitte se compromete totalmente com a IA – apesar de ter que emitir um reembolso considerável pelo uso da IA

A empresa de serviços profissionais e consultoria Deloitte anunciou um acordo histórico de IA com a Anthropic no mesmo dia em que foi revelado que a empresa teria que emitir um reembolso por um relatório contratado pelo governo que continha informações imprecisas produzidas por IA.

O resultado: o acordo da Deloitte com a Anthropic é um referendo sobre seu compromisso com a IA, mesmo enquanto lida com a tecnologia. E a Deloitte não está sozinha nesse desafio.

O momento desse anúncio é interessante – até cômico. No mesmo dia em que a Deloitte destacou seu aumento no uso de IA, o Departamento de Emprego e Relações de Trabalho da Austrália disse que a empresa de consultoria teria que emitir um reembolso por um relatório que fez para o departamento que incluía alucinações de IA, informou o Financial Times.

O departamento havia encomendado uma “revisão de garantia independente” de A$439.000 da Deloitte, que foi publicada no início deste ano. O Australian Financial Review informou em agosto que a revisão tinha vários erros, incluindo múltiplas citações a relatórios acadêmicos inexistentes. Uma versão corrigida da revisão foi carregada no site do departamento na semana passada. A Deloitte devolverá a última parcela de seu contrato governamental, informou o FT.

A TechCrunch entrou em contato com a Deloitte para comentar e atualizará o artigo se a empresa responder.

A Deloitte anunciou na segunda-feira planos de lançar o chatbot Claude da Anthropic para seus quase 500.000 funcionários globais na segunda-feira. A Deloitte e a Anthropic, que formaram uma parceria no ano passado, planejam criar produtos e recursos de conformidade para indústrias regulamentadas, incluindo serviços financeiros, saúde e serviços públicos, de acordo com uma postagem no blog da Anthropic. A Deloitte também planeja criar diferentes “personas” de agentes de IA para representar os diferentes departamentos dentro da empresa, incluindo contadores e desenvolvedores de software, de acordo com reportagens da CNBC.

“A Deloitte está fazendo esse investimento significativo na plataforma de IA da Anthropic porque nossa abordagem em relação à IA responsável está muito alinhada, e juntos podemos remodelar como as empresas operam na próxima década. Claude continua sendo uma escolha líder para muitos clientes e nossa própria transformação em IA”, escreveu Ranjit Bawa, líder global de tecnologia e ecossistemas e alianças da Deloitte, na postagem do blog.

Os termos financeiros do acordo – que a Anthropic se referiu como uma aliança – não foram divulgados.

O acordo não é apenas a maior implantação empresarial da Anthropic até agora, mas também ilustra como a IA está se incorporando em todos os aspectos da vida moderna, desde ferramentas usadas no trabalho até consultas casuais feitas em casa.

A Deloitte não é a única empresa, ou indivíduo, que tem enfrentado problemas ao usar informações imprecisas produzidas por IA nos últimos meses.

Em maio, o jornal Chicago Sun-Times teve que admitir que publicou uma lista de livros gerada por IA para sua lista de leitura de verão após leitores descobrirem que alguns dos títulos dos livros eram alucinações, mesmo que os autores fossem reais. Um documento interno visto pelo Business Insider mostrou que a ferramenta de produtividade de IA da Amazon, Q Business, teve dificuldades com precisão em seu primeiro ano.

A própria Anthropic também foi criticada por usar informações alucinatórias geradas por IA de seu próprio chatbot Claude. O advogado do laboratório de pesquisa em IA pediu desculpas depois que a empresa usou uma citação gerada por IA em uma disputa legal com editores de música no início deste ano.

Fonte

Compartilhe esse conteúdo: