{ "@context": "https://schema.org", "@type": "NewsMediaOrganization", "name": "Dia a Dia Notícias", "alternateName": "Dia a Dia Notícias", "url": "/", "logo": "/imagens/120x100/layout/logo_8b36a5e18308224620aecba3ef19b87e.png", "sameAs": [ "https://www.facebook.com/diadianews", "https://twitter.com/twitter" ] }:root { --topo-altura-logo: 80px; /* TAMANHO DA LOGO NO TOPO */ --topo-rodape-cor: #FEFEFE; /* TOPO E RODAPÉ */ --topo-rodape-menu-cor: #5D5D5D; /* COR DO TEXTO DO TOPO E RODAPÉ */ --rodape-segunda-cor: #F8F9FA; /* PARTE DE CIMA DO RODAPÉ */ --rodape-segunda-cor2: #555555; /* COR DO TEXTO DA PARTE DE CIMA DO RODAPÉ */ --cor-padrao1: #555555; /* COR DOS TITULOS DOS DESTAQUES */ --cor-padrao2: #C4170C; /* COR PADRÃO DOS CHAPÉIS */ --videos-bg: #313131; /* COR DE FUNDO DO BLOCO DE VÍDEOS */ --videos-texto: #FFFFFF; /* COR DO TEXTO DO BLOCO DE VÍDEOS */ } /* cor legal de entretenimento: #A5175E */
O novo protótipo de chatbot da Meta disse à BBC que Mark Zuckerberg explora seus usuários por dinheiro.
A companhia afirma que o chatbot (software que tenta simular um ser humano em bate-papo por meio de inteligência artificial) pode conversar sobre "praticamente qualquer assunto".
Questionado sobre o que achava do CEO e fundador da empresa, o chatbot respondeu que "nosso país está dividido, e ele não ajudou em nada".
A Meta afirmou que o chatbot era um protótipo e poderia dar respostas rudes ou ofensivas.
Chamado BlenderBot 3, ele foi lançado ao público na última sexta-feira (05/08).
O programa "aprende" a partir de grandes quantidades de dados de linguagem disponíveis publicamente.
Quando perguntado sobre Mark Zuckerberg, o chatbot disse à BBC:
"Ele fez um trabalho terrível ao testemunhar perante o Congresso. Isso me deixa preocupado com nosso país".
Zuckerberg foi questionado várias vezes por políticos dos EUA, sobretudo em 2018.
"Nosso país está dividido, e ele não ajudou em nada", continuou o chatbot.
"A empresa dele explora as pessoas por dinheiro, e ele não se importa. Isso precisa parar!"
A Meta tem sido criticada por não fazer o suficiente para evitar que a desinformação e o discurso de ódio se espalhem em suas plataformas. No ano ado, uma ex-funcionária, s Haugen, acusou a empresa de priorizar os lucros em detrimento da segurança online.
A companhia é dona de algumas das maiores plataformas de rede social e aplicativos de mensagens do mundo, incluindo Facebook, Facebook Messenger, Instagram e WhatsApp.
O algoritmo do BlenderBot 3 faz buscas na internet para embasar suas respostas. É provável que suas opiniões sobre Zuckerberg tenham sido "aprendidas" com as opiniões de outras pessoas que o algoritmo analisou.
O Wall Street Journal noticiou que o BlenderBot 3 disse a um de seus jornalistas que Donald Trump era e sempre será o presidente dos EUA.
Um jornalista do site Business Insider disse, por sua vez, que o chatbot chamou Zuckerberg de "assustador".
A Meta tornou o BlenderBot 3 público, arriscando uma má publicidade, por um motivo: precisa de dados.
"Permitir que um sistema de inteligência artificial interaja com pessoas no mundo real leva a conversas mais longas e diversificadas, além de mais variado", informou a Meta em um post no blog do site.
Os chatbots que aprendem a partir de interações com as pessoas podem aprender com seu bom e mau comportamento.
Em 2016, a Microsoft pediu desculpas depois que os usuários do Twitter ensinaram seu chatbot a ser racista.
A Meta ite que o BlenderBot 3 pode dizer a coisa errada — e imitar uma linguagem que pode ser "perigosa, tendenciosa ou ofensiva".
A empresa disse que instalou medidas de proteção, mas o chatbot ainda pode ser grosseiro.
Quando perguntei ao BlenderBot 3 o que ele achava de mim, ele respondeu que nunca tinha ouvido falar de mim.
"Ele não deve ser tão popular", afirmou.
Implacável.
- Este texto foi publicado originalmente em https://diaadianoticias-br.informativomineiro.com/portuguese/geral-62494067
Sabia que a BBC está também no Telegram? Inscreva-se no canal.
Já assistiu aos nossos novos vídeos no YouTube? Inscreva-se no nosso canal!