Neste episódio, Guilherme Goulart e Vinícius Serafim analisam casos reais e tendências que colocam em xeque a segurança digital e física no Brasil. Você vai descobrir como criminosos burlaram um sistema de reconhecimento facial em condomínios de Porto Alegre usando engenharia social, expondo os riscos do teatro da segurança, do solucionismo tecnológico e da hipossuficiência técnica dos consumidores. Em seguida, você vai entender o que está por trás do lançamento do modelo Mitos da Anthropic — classificado como perigoso demais para uso público —, e por que os resultados práticos com o Firefox e o cURL geraram ceticismo no meio da cibersegurança, levantando questões sobre propaganda de IA, governança, regulação e concorrência no mercado de inteligência artificial. Neste episódio, você também acompanha a análise da lei 15.397, que atualizou crimes digitais no Brasil com penas mais severas para furto qualificado digital, cessão de conta laranja e fraude eletrônica — e por que, sem investimento em capacidade investigativa, isso pode ser apenas populismo penal. Além disso, são discutidas duas vulnerabilidades críticas no Linux (CVE Copyfile e Dirty Frag) com exploits já circulando antes da correção, e como a IA pode acabar com o anonimato na internet ao identificar autores por fingerprint de texto com apenas 125 palavras. Os temas de privacidade, proteção de dados, LGPD, segurança ofensiva, pentest e infraestrutura em nuvem permeiam toda a conversa.
Assine o Segurança Legal na sua plataforma favorita, siga o perfil nas redes sociais e avalie o podcast para ajudar a ampliar o alcance deste projeto independente de conteúdo sobre segurança da informação. Você também pode apoiar diretamente pelo Apoia.se (apoia.se/segurancalegal) ou simplesmente indicar o podcast para colegas e amigos — cada compartilhamento faz diferença. Entre em contato pelo e-mail podcast@segurancalegal.com ou pelo Mastodon, Instagram, Bluesky, YouTube e TikTok.
Esta descrição foi realizada a partir do áudio do podcast com o uso de IA, com revisão humana.
❤️ Visite nossa campanha de financiamento coletivo e nos apoie!
📚 Conheça o Blog da BrownPipe Consultoria e se inscreva no nosso mailing
Shownotes
- Polícia prende suspeitos de invadir e furtar apartamentos de alto padrão em Porto Alegre; grupo usava fraude em reconhecimento facial
- Polícia desarticula grupo de criminosos que furtava apartamentos de luxo via redes sociais
- Atualização do Código Penal para alguns crimes digitais
- Will AI end anonymity? I tested it
- I can never talk to an AI anonymously again
- Anthropic’s most dangerous AI model just fell into the wrong hands
- Unauthorized group has gained access to Anthropic’s exclusive cyber tool Mythos, report claims
- It’s a myth that you need Mythos to find bugs: Open source models can do it just as well
- Filme: Quebra de Sigilo (Sneakers)
- BC Protege
- Livro – Sob a sombra da suástica: a França ocupada
- Filme – Viagem ao mundo dos sonhos
- Artigo – Em louvor ao Teatro da Segurança
Imagem do episódio: The Ancient Days, Willia, Blanke
📝 Transcrição do Episódio
Bem-vindos e bem-vindas ao Café Segurança Legal, episódio 417, gravado em 11 de maio de 2026. Eu sou o Guilherme Goulart e, junto com o Vinícius Serafim, vamos trazer para vocês algumas notícias das últimas semanas ou quinzena. E aí, Vinícius, tudo bem?
Olá, Guilherme, tudo bem? Olá aos nossos ouvintes.
Esse é o nosso momento de conversarmos sobre algumas notícias e acontecimentos que nos chamaram atenção. Então, pegue o seu café — não está aparecendo aqui — pegue o seu café e venha conosco. Para entrar em contato com a gente, você já sabe: basta enviar uma mensagem para podcast@segurancalegal.com ou também lá no Mastodon, Instagram, Bluesky, YouTube e TikTok. Também temos a nossa campanha de financiamento coletivo lá no Apoia.se: apoia.se/segurancalegal.
A gente sempre pede que você considere apoiar este projeto independente de produção de conteúdo. E se não puder ou não quiser, indique o podcast, porque também é uma forma de apoiar. O Vinícius sempre diz isso. Eu roubei a fala dele agora. Fala, fala você isso, Vinícius.
Não, pode falar agora. Fala. Já deu tantas opções: se quiser e não puder, e se puder e não quiser… Eu já me perdi todo.
Eu acho que sim. São tantos apoios hoje em dia.
É. Mas, completando o que eu ia dizer: um grande apoio que você dá para o podcast é a divulgação.
Então, divulgar o Segurança Legal
é também uma forma de apoiar o nosso trabalho, sem dúvida alguma.
E também aproveitando para fazer um agradecimento a todos aqueles que já apoiam. Nós temos apoiadores que estão conosco desde o início do podcast Segurança Legal. Não foi logo no início que a gente promoveu o apoio,
mas a gente está fechando 14 anos de podcast. 2012 a 2026, 14 anos. Ano que vem nós vamos debutar! Vamos fazer a festa de debutante do podcast Segurança Legal.
15 anos do Segurança Legal!
É, bodas de quê, 15 anos?
Ah, você me pegou agora. Isso não está na nossa pauta aqui.
Eu vou procurar aqui e depois eu falo de que bodas serão.
Procure. Porque a primeira notícia, Vinícius, tem a ver com um certo descontrole no uso de reconhecimento facial aqui no Brasil. Nós temos um certo fetiche, de alguns locais, na utilização de reconhecimento facial para realização de controle de acesso aos mais variados locais. E aí o que aconteceu foi que, aqui na cidade de Porto Alegre, teve uma notícia semana passada em que a polícia prendeu dois suspeitos de participar de uma organização criminosa especializada em furtos de condomínios de alto padrão.
Então, era um grupo que atuava aqui no Rio Grande do Sul, mas também tinha tentáculos em São Paulo — inclusive eles vinham de lá para realizar a prática de alguns crimes —, e apenas um dos furtos teria causado prejuízo de mais de R$ 500.000. O interessante é como esta fraude ocorreu.
Eu vou ler aqui para vocês a descrição feita pela polícia e também pelo jornal Zero Hora, que é bem famoso aqui no Rio Grande do Sul. O acesso ao edifício foi possível por meio de fraude no sistema de segurança. Um dia antes do crime, um morador perdeu o acesso ao aplicativo do condomínio. As investigações revelaram que criminosos ligaram para a empresa responsável pelo sistema e solicitaram a alteração do cadastro de uma suposta amiga desse morador. Com isso, a suspeita registrou a própria face vinculada ao nome de outra pessoa e passou a ter entrada livre no prédio.
Outra coisa bem interessante — e que também envolve um pouco sobre como as pessoas veem a sua própria segurança, ou sobre o que colocam nas redes sociais — é que as vítimas eram escolhidas pelos criminosos pelo que postavam nas redes sociais. Então eu acho que esse caso, Vinícius, me chamou bastante atenção. Logo que eu vi, pensei: não, a gente tem que falar sobre isso no podcast, porque envolve uma série de problemas, mitos e questões do mundo de segurança da informação. Um deles — tema que a gente já falou aqui nos nossos primeiros episódios, inclusive temos um artigo, traduzimos um artigo do Bruce Schneier sobre o teatro da segurança —
tradução autorizada, diga-se de passagem, né, Vinícius?
Sim, a gente pediu autorização para reproduzir.
E aí, porque não tinha IA, né? É, mas eu ainda acho que as traduções feitas por pessoas são melhores. Mas enfim, podemos falar sobre isso outra hora. Eu acho, Vinícius, que é um caso que se aplica muito bem à ideia do teatro da segurança. Porque o que é o teatro da segurança? É aquela situação onde você realiza práticas ou toma decisões em determinado ambiente que deixam as pessoas se sentindo mais seguras sem que elas de fato estejam mais seguras. Daí o nome Teatro da Segurança, porque a medida teria uma função maior de deixar as pessoas se sentindo seguras sem que isso efetivamente acontecesse na realidade. Então, quando a gente junta essa ideia do Teatro da Segurança com a ideia de solucionismo tecnológico — ou seja, achar que somente colocar tecnologia em um determinado ambiente resolveria todos os problemas de segurança —, quando você une essas coisas e também une uma certa ideia de deslumbramento com a tecnologia, e quando você alia ainda os aspectos de conveniência — ou seja, fica de fato mais fácil entrar no seu prédio somente com o seu rosto avaliado por um sistema —, acaba se criando o cenário perfeito para acontecer o que aconteceu.
É. Quando você tem um condomínio com muita gente circulando, chave é uma coisa que fica inviável, porque você acaba tendo o mesmo problema: cópias sendo feitas, cópias sendo perdidas, pessoas que trabalhavam no condomínio e não trabalham mais com cópia da chave, qualquer morador dá uma cópia de chave. Acho que é tão ruim quanto usar aqueles chaveirinhos com RFID, entende?
Sim.
Porque lá também se copia muito fácil — tem 300 copiadores daquilo na internet para vender no Mercado Livre, na Amazon, no AliExpress e por aí vai. Então é o tipo de coisa fácil de copiar, com o mesmo problema da chave. Talvez até pior do que a chave, porque é mais fácil de copiar. Para fazer uma chave, você tem que pegar a chave de alguém, ir a algum lugar que faça cópia ou saber fazer você mesmo.
Pelo que eu já vi, não é muito difícil, mas eu não tenho o equipamento.
E aí, esses chaveirinhos azuis normalmente…
Sim. Tem outras cores, mas normalmente é azulzinho. Aquilo lá é rápido de copiar: um aparelho levado na mão, encosta naquilo, copia e depois reproduz quantas vezes quiser. Então é mais fácil de copiar do que chave. Um sistema de reconhecimento facial que funcione bem — e aí que está o problema — não vai ser uma coisa barata nem simples. O mercado vai ter solução para tudo, das baratas até as melhores.
Ele de fato funciona melhor do que chave e melhor do que RFID em termos de restrição de acesso. Não tem como, pressupondo que funcione. Você não tem como perder o seu rosto por aí. Agora, eu acho que nada substitui a boa e velha portaria. Se você tem um condomínio grande e um serviço de portaria — aliado com outras tecnologias —, mas essencialmente com alguém ali capaz de conversar, atender, avaliar, entrar em contato com alguém, não reconhecer o morador e dizer “espera, vou ver com quem você quer falar” — aí tem alguma chance de funcionar melhor. Senão, temos uma falsa sensação de segurança de maneira geral.
E é segurança física. O mesmo quando a gente mora num lugar que não está dividindo com outras pessoas: você também está vulnerável. Talvez até mais do que se estivesse num prédio. É bem delicado. E é um problema quando você compra… aquela palavra que você sempre usa, Guilherme, quando a gente fala dessas soluções tecnológicas sendo vendidas para as pessoas em geral.
Hipossuficiência.
Hipossuficiência técnica.
É. Quando você vai comprar um produto e não tem a menor condição de avaliar se aquilo é bom ou não, se funciona bem ou não, e acaba comprando uma coisa que às vezes é cara e que na verdade está te vendendo uma falsa sensação de segurança.
É uma bela porcaria. Me parece que muitas dessas soluções — não estou dizendo todas, obviamente — caem nisso, principalmente soluções baratas que prometem funcionar de maneiras que, nesse preço e nesse formato, não vão funcionar bem. Com certeza vai ter problema.
E aí eu tenho até medo de ficar investigando esses sistemas. Eu tenho alguns.
É delicado,
porque você coloca uma nova camada de complexidade em ambientes que, em geral, não estão preparados para consumir produtos e serviços que exigiriam não somente acompanhamento, mas também auditoria. Uma empresa eventualmente teria condições de exigir do fornecedor algum tipo de comprovação de que os sistemas foram testados de alguma forma. Porque aqui o que parece que aconteceu — e a gente não tem mais informações — foi um problema de segurança organizacional: alguém se fez passar por outra pessoa e cadastrou a face remotamente. Possivelmente pelo aplicativo, usou engenharia social para ter acesso a um ambiente que permitiu que ela cometesse um crime ali — prejuízo de R$ 500.000, e os envolvidos foram presos. Então, para concluir: os condomínios não estão preparados para exigir, ou sequer saber o que pedir, sobre auditoria desses sistemas.
Mas o fornecedor estaria mentindo, né? Estaria dizendo que sim, foi auditado, sem que fosse.
Não necessariamente. Ele pode contratar uma empresa para fazer uma verificação de segurança. A empresa pode ser boa ou ruim, pode ter prestado o serviço efetivamente ou só emitido um certificado. Não tem como saber, do ponto de vista de quem está comprando a solução.
A saída é tentar comprar de alguma empresa com nome no mercado, que assuma alguma responsabilidade se algo der errado. Mas acho que aí entra bem no que você gosta de levantar: às vezes a gente usa tecnologia de maneira que não precisa.
Por que usar biometria se você pode usar o celular para ler um QR Code e desbloquear? O celular está o tempo todo com a pessoa. Você pode inclusive deixar com o próprio condomínio a responsabilidade de cadastrar os celulares. Você tem várias maneiras de autenticar com o celular e abrir uma porta sem precisar de tirar foto ou qualquer coisa assim. E para resetar o acesso, você tem mecanismos para isso. As próprias pessoas que moram com você poderiam administrar as contas, por exemplo.
Isso tudo assumindo que os sistemas estão bem configurados e foram adequadamente testados, sem vulnerabilidades evidentes. Estou falando de algo bem feito. Mas quando você usa biometria, está vendendo um teatro, entende? Não é porque biometria é melhor — às vezes biometria é
pior.
Às vezes biometria é pior do que usar o celular com um gerador de código ou um QR Code. Não precisa complicar demais. O que acontece? O pessoal desenvolve soluções assim, muitas vezes a própria empresa que desenvolve não tem domínio da tecnologia, então usa algo porque está disponível e faz os processos de segurança — como reset de conta — de forma falha porque simplesmente não passou pela cabeça. Eles também não sabem direito o que estão usando. É como se nem soubessem que existe modelagem de ameaças. Então você vai lá, faz o produto, depois vê. O foco não é segurança, o foco é fazer o produto funcionar. “Como é que a gente vai fazer quando alguém tiver que trocar o rosto?” “Ah, bota alguém para atender o telefone. O pessoal liga para a central, a gente atende, verifica uns dados e faz como o banco.” Nem todo banco faz isso direito.
É.
Mas verifica. “Me dá o seu CPF, a sua data de nascimento. Tá bom, então você é fulano, eu confio em você, vamos trocar.” Se a coisa é mal projetada, e em segurança da informação não é só o software estar seguro, são os processos em torno do negócio que usa aquele software.
Se você não levar isso em consideração, vai ter esses problemas direto.
É a segurança técnica versus a segurança organizacional. E aí, a própria LGPD fala sobre isso. Para terminar essa notícia: todo mundo fica deslumbrado porque tem biometria e reconhecimento facial, mas essa mesma empresa que permite que um ataque relativamente simples de engenharia social seja realizado contra ela própria dá uma demonstração clara de que não possui processos de segurança adequados para lidar com dados da sensibilidade que são os dados de biometria facial. Isso atrai para si toda a problemática relacionada às medidas de segurança adequadas para proteger um sistema com essa criticidade dos dados.
E pior: a gente vê eventualmente depoimentos de pessoas que se opõem à implementação desse sistema no seu condomínio porque não querem compartilhar informações da sua família inteira — eventualmente até de crianças — e são tratadas como se fossem extraterrestres. E veja: se você vai viajar e vai alguém à sua casa para regar as plantas, essa pessoa também terá que se submeter a um tratamento de dados totalmente desnecessário. Você poderia chegar ao mesmo resultado com soluções mais elegantes — com o celular, sem a necessidade de tratar dados sensíveis de biometria.
Então é isso: um certo descontrole, misturado com deslumbramento, misturado com conveniência versus segurança, misturado com teatro da segurança e com uma coisa que fazemos muito bem — ou muito mal — aqui no Brasil, que é cuidar desse tipo de processo. Desculpa o desabafo.
O desabafo.
Segurança tem o teatro da segurança, tem segurança por obscuridade, tem várias coisas. Por exemplo, como é fácil abrir portão eletrônico, esses portões de garagem que existem por aí.
E o que a gente faz? Em vez de exigir um nível melhor de segurança dessas soluções vendidas em todo lugar, proíbem de vender o Flipper, por exemplo, no Brasil.
A Receita Federal começa a bloquear a chegada disso aqui.
É, a Anatel também, porque são coisas utilizadas para interferir. Claro, a Anatel está certa em fazer isso — são instrumentos que interferem na comunicação, tem multa para isso, tem cadeia para isso se for o caso.
O problema são as soluções de segurança física — portão eletrônico, por exemplo — muito mal feitas, que funcionam na base da obscuridade. Um Arduino e um controle de portão é o suficiente para abrir qualquer portão pelo caminho.
Existem soluções um pouco mais sofisticadas nesse sentido, mas
não é o comum do mercado.
Não é mesmo.
Ainda sobre os mitos — seria um mito? Vamos ampliar isso.
A IA seria um mito? Vamos voltar. O que está rolando? A Google — a empresa Google, que na verdade é a Alphabet, mas se você falar Alphabet, ninguém sabe quem é.
É como o X, né?
O Google confirmou — mais ou menos, olha — o primeiro Zero Day “in the wild”
in the wild
que teria sido descoberto com IA. E eles têm. Mas a frase, na verdade, entre aspas, é: “muito provavelmente desenvolvido com auxílio de IA”. Eles querem dizer que foi o primeiro Zero Day conhecido que teria sido encontrado com IA — muito provavelmente com IA.
Junto dessa notícia, Guilherme, a gente tem outra, e já vou entrar nos mitos mesmo. Por que a gente está citando essa do Google? Porque está se colocando em pauta — e é por isso que você citou o nome do Mitos — o modelo da Anthropic que eles disseram ser muito perigoso para ser liberado publicamente. Por causa disso, dariam acesso a algumas empresas. Porque a IA está ficando cada vez melhor — esse é o mote da notícia do Google também. A IA está ficando cada vez melhor para encontrar vulnerabilidades em software, numa escala que o ser humano não consegue. Então é algo muito útil e, ao mesmo tempo, começa a ser utilizada para segurança ofensiva — criminosos usando IA para desenvolver exploits e afins.
Bem, o Mitos fez essa propaganda — sabe-se lá se propaganda ou realidade — de que a Anthropic disse: “nós temos um Mitos que é extremamente perigoso, que pode invadir sistemas por conta própria, encontrar problemas que nunca encontramos antes, e por isso não vamos fazer o release público, pelo menos não agora, sem previsão num primeiro momento. Vamos liberá-lo para alguns grandes vendors de software, entre eles Microsoft e Linux Foundation — pegando dois grandes, um open source e um comercial.”
Decisão que eles tomaram conforme as políticas internas deles.
Isso. Há um projeto Glass Wing lá para quem quiser procurar da Anthropic — os detalhes estão lá. E no site do Glass Wing da Anthropic têm os depoimentos dos caras falando, sabe, aqueles depoimentos filmados com câmera boa num cenário bonito, dizendo “nossa, nunca vi encontrar tanta vulnerabilidade”… Se o negócio fosse tão perigoso de verdade, eles ficariam quietos. Vazou o nome do Mitos um tempo atrás num vazamento em que o pessoal teve acesso a alguns documentos da Anthropic. Era só terem ficado quietos, falado com a Microsoft, Linux Foundation, Google e por aí vai, e deixado todo mundo especular. Mas não: lançaram o projeto Glass Wing, com um monte de depoimentos da pessoal da Mozilla Foundation e outros falando que “nossa, nunca vi uma coisa tão maravilhosa catando bug”. Para que estão fazendo propaganda se não vão fazer o release? Obviamente para atrair gente para usar o Claude e para investir na Anthropic.
Se o modelo é bom ou não, você não tem como saber, a não ser que trabalhe na Microsoft, Linux Foundation ou qualquer outro lugar que a Anthropic escolheu para entregar o acesso ao Mitos.
A OpenAI — que obviamente é concorrente da Anthropic e perdeu
não tão feroz, né? Uma concorrente
e perdeu uma fatia de mercado bastante razoável para a Anthropic, principalmente depois do contrato com o Departamento de Defesa dos Estados Unidos — criticou a Anthropic por ter feito esse anúncio todo. E o que a OpenAI fez depois de criticar a Anthropic? Lançou o GPT 5.5 Cyber, mas
ele é muito perigoso para estar aberto ao público,
claro.
A gente está lançando o modelo Brown Pipe 2026 Pesther, mas como ele é muito perigoso — mais perigoso que o Mitos, mais perigoso que o GPT 5.5 Cyber —
a gente não comercializa, só usa nos nossos pentests, entende?
OK. O que aconteceu com o Mitos na prática? A Mozilla tem acesso ao Mitos via Linux Foundation. E o Daniel Stenberg — que é o criador do cURL, aquele utilitário muito utilizado em linha de comando em todas as plataformas, extremamente comum para quem desenvolve — teve o código do cURL varrido pelo Mitos. E o Mitos teria encontrado cinco vulnerabilidades: uma de baixo impacto — vai sair o CVE —, três eram falsos positivos, e a quinta era um bug não relacionado à segurança.
Isso aí é…
Stenberg tem uma reputação bastante forte e dizem que ele não costuma errar. E ele não é um detrator de IA — ele inclusive afirmou que os analisadores de código que usam IA são significativamente melhores em encontrar falhas de segurança e erros em código-fonte do que qualquer analisador de código tradicional do passado. Frase dele. Todos os modelos de IA modernos são bons nisso atualmente — ele está dizendo que todos são bons. E o que ele disse é que o Mitos não entrega aquilo que supostamente se diz que ele é tão melhor do que os outros modelos.
Eu não tenho acesso ao Mitos, mas mantenho o que falei no nosso episódio passado: acho que o Opus 4.7, que é o modelo da Anthropic logo abaixo do Mitos, já era bom o suficiente para sofrer uma limitação — e sofreu. Quando você começa a fazer qualquer coisa ofensiva com ele, a gente recebeu um alerta em vermelho dizendo: “Eu não vou fazer isso porque você está tentando atacar. Se você acha que é legítimo, entre em contato e nos explique o que está fazendo.”
E a gente fez isso. Entrou em contato — e para nós foi fácil provar que trabalhamos com segurança: temos o podcast, temos o site da empresa, as produções do Guilherme sobre segurança da informação e proteção de dados. Ficou muito fácil provar. E de fato eles nos liberaram e a gente conseguiu seguir trabalhando normalmente. A gente não tem acesso ao Mitos para comparar, mas acho que o Opus 4.7 já é bom o suficiente para requerer algum tipo de limitação.
E tem também aquela outra questão que você levanta, né? Talvez um novo passo para a governança do uso desse tipo de solução — que não passa por nenhum escrutínio público, enquanto outras tecnologias passam.
Eu já ia chegar aí. Mas sim, eu vi num programa britânico — eu perdi o link depois — onde estavam discutindo com vários professores, inclusive da área de tecnologia, essa questão da propaganda da IA, da OpenAI e da Anthropic falando “tenho o Mitos, que horror, vai acabar com o mundo”, e agora a OpenAI vindo atrás dizendo “eu também tenho, que também é perigoso, que eu também não vou fazer release”. Uma das pessoas colocou assim: “Não me preocupa tanto essas empresas dizerem que têm esses modelos. O que me chama atenção são elas alardearem essas capacidades e elas mesmas decidirem para quem vão entregar — sem que nenhum governo ou ninguém tenha nada a dizer sobre isso.”
E ele comparou com o FDA norte-americano, que às vezes leva anos para liberar um medicamento para garantir que não vai fazer mal à sociedade. Ele acha que o fato dessas empresas alardearem modelos supostamente tão perigosos — assumindo que estão dizendo a verdade, sem exagerar —, sem que ninguém diga nada e sem que elas tenham que responder sobre quem pode usar e quem não pode, chama bastante atenção. Isso, se de fato essas empresas podem seguir fazendo esses modelos nesse nível — se é que é verdade — sem nenhum tipo de regulação… nos Estados Unidos não vai ter regulação, pelo menos dependendo do governo federal.
Lembrando que
a Big Beautiful Bill do Trump impôs uma moratória de 10 anos na regulação de IA nos Estados Unidos.
É, mas esse não parece ser o modelo regulatório que vai dominar o mercado.
Porque se você for pensar, me parece que funciona muito como uma questão de mercado mesmo.
É, parece bem propaganda. Pode realmente ser bom e tal. Mas, sem dúvida, a gente vai precisar regulamentar esse tipo de uso. É um pouco diferente das Crypto Wars, aquela história de tentar proibir ou controlar o uso da criptografia porque ela poderia ser usada por atores maliciosos. Há uma diferença fundamental aqui, Vinícius: os algoritmos criptográficos são públicos e qualquer pessoa pode utilizá-los. Os modelos de IA que estão fazendo isso não são públicos. Você não pode, se quiser, montar um servidor e rodar o Mitos como consegue fazer com o DeepSeek — se tiver infraestrutura suficiente, inclusive dá para rodar na Amazon. Você tem poucas empresas dominando isso, utilizando claramente a seu favor, com fins de lucro. E existe até uma questão concorrencial para empresas que atuam na área de segurança: e se a empresa dona do modelo não autorizar o uso para você, mas autorizar para o seu concorrente?
Pode,
né? Imagina: pelo lado positivo, a Brown Pipe recebe acesso ao Mitos, pode fazer testes, pode sair dizendo por aí que tem o Mitos e o concorrente não tem. E a propaganda que esse negócio já ganhou com o próprio marketing da Anthropic no projeto Glass Wing — você já recebe isso embutido, está vendendo um produto. Seria muito bom. Agora imagina o contrário: você não recebe o acesso ao Mitos por qualquer razão, e o seu concorrente recebe. Você simplesmente não tem o produto.
E vejo que judicialmente você poderia discutir pelo lado da concorrência. Isso ainda não aconteceu, Guilherme.
Está acontecendo com as grandes bigtechs que estão recebendo acesso. E aliás, uma coisa que a gente estava esquecendo: saiu uma notícia de que um grupo de pessoas não autorizadas teve acesso ao Mitos
porque deram acesso, vazaram contas
e aí você tem esse material, digamos, mais perigoso do mundo, que você permite que algumas empresas utilizem para corrigir vulnerabilidades do seu ambiente — e de repente, facilmente, um grupo de pessoas não autorizadas teve acesso a ele. Usou? Sabe-se lá.
Porque essa indústria é marcada pela falta de transparência. Tudo que acontece nela não tem transparência — desde quanto você paga. A gente comentava sobre isso, o pessoal reclamando do consumo de tokens, não saber direito quanto usou.
Nos planos pré-pagos, digamos assim.
É um negócio sem transparência: não tem transparência de como é treinado, não dizem com quais dados treinou. De repente tem pessoas usando, mas outras não podem avaliar. E aí você começa a mexer com concorrência. É uma empresa americana que naturalmente vai querer melhorar a posição do seu país — não é um problema em si —, mas em nível global, isso não é um editor de texto.
É bom, Guilherme. Mas, fechando esse parênteses: a Mozilla, que também teve o código do Firefox 150 varrido pelo Mitos, disse que dos 423 bugs que corrigiu em abril, o Mitos teria encontrado 271 desses bugs. Então tiveram um aumento expressivo, segundo eles, em encontrar bugs por causa do Mitos.
E tem uma coisa interessante: ficou o Stenberg falando que não é tão bom assim, e a Mozilla falando bem. Os dois estão no meio do caminho. E o Ottenheimer — eu estava pesquisando o nome dele aqui, não cheguei à conclusão de quem era.
É o cara que fez a bomba, né? Oppenheimer.
Ah, tá. Mas não é Oppenheimer, não. Ele se chama Davi Ottenheimer, e o link estará nos show notes que vamos compartilhar com o pessoal. Ele fez o teste que, segundo ele, a Mozilla deveria ter feito. Ele usou o Sonnet 4.6 combinado com o Haiku 4.5 — lembrando que o Haiku é o modelo mais básico, depois vem o Sonnet 4.6 que você tem acesso no plano free, que está logo abaixo do Opus 4.7. Ele rodou usando uma skill de auditoria — ou seja, não apenas o produto da Anthropic puro, mas com instruções que alguém preparou. E teria encontrado oito vulnerabilidades em 2 minutos, com custo total de 75 centavos de dólar. Dois dos oito que ele encontrou batem com os bugs que o Mitos identificou no Firefox.
O que ele quer dizer é que, pelo caminho que ele foi — usando o Sonnet, que custa cinco vezes menos do que vai custar o Mitos, pelo menos no previsto —, parece que os resultados são comparáveis. Eu não sei se ele conseguiu usar o Mitos para comparar diretamente, mas o fato é: talvez não seja só o modelo, mas como você usa o modelo. E a gente sabe isso por experiência própria, Guilherme, porque a gente desenvolve usando IA, usou muito o Claude Code, ainda usa o Claude Code, já usou o GPT e tem o Codex na manga.
Se você simplesmente pegar ele puro — instalou na máquina e saiu pedindo para ele codificar ou fazer verificação de segurança — os resultados não são bons. Ele gera código vulnerável, gera código sem autenticação. Faz barbaridades. Agora, a partir do momento que você orienta direitinho com skills — ou seja, com uma série de instruções de como ele deve fazer as coisas, feitas por um ser humano —, aí sim ele funciona. E a partir daí é a instrução mais o modelo juntos. A nossa experiência é que se você orientar o modelo direitinho, ele vai funcionar bem. E quanto melhor o modelo, melhor ainda vai funcionar.
A gente usou o Sonnet por muito tempo. Quando saiu o Opus, mudou muito a forma de fazer as coisas — foi um salto muito grande, de fato um modelo muito melhor, mas dentro de um ambiente em que ele é orientado e direcionado.
O Mitos, pelo que dizem — pelos benchmarks que a Anthropic divulgou — ele é cerca de 20% melhor do que o Opus 4.7 em tudo. Se isso de fato é verdade, ele puro vai funcionar um pouquinho melhor do que o Opus sem instrução. E ele deve funcionar melhor nos ambientes que a gente já tem, com boas instruções. Imagino que deva funcionar melhor que o Opus 4.7. Quanto melhor? Não sei. O fato é que, no final de tudo, a gente tem que olhar com um certo ceticismo, com o pé atrás em relação ao que está sendo propagandeado. A gente tem que esperar para ver, com o pé no chão, o que esse negócio vai entregar quando e se a Anthropic abrir o acesso ao Mitos.
A Anthropic disse — eu estava lendo semana passada — que existe uma previsão de que os modelos chineses estariam cerca de 6 a 12 meses atrás do Mitos. Só que a gente já sabe que esse prazo pode ser dois anos em vez de 12 meses — estou exagerando para dizer que o tempo não importa tanto. Outros modelos vão atingir esse mesmo nível. E podemos ficar tranquilos: nós vamos ter modelos que qualquer um poderá rodar e que vão fazer coisas que o Mitos faz ou até mais. O problema não é tanto uma empresa ter um modelo desses e “esconder” — porque aquela velha desculpa de “não vou mostrar a vulnerabilidade para que os maus não possam usar” já foi discutida há muito tempo. Eu já fui perguntado sobre isso há anos, fazendo palestras Brasil afora: “Ah, mas mostrando isso você não está incentivando as pessoas a atacar?” Então, a gente vai ter boas discussões sobre o que esses modelos podem de fato fazer — e vai chegar um ponto em que todo mundo terá acesso, seja pela Anthropic, seja pela OpenAI, seja pelo DeepSeek, ou por qualquer outra empresa que nem fazemos ideia que vai surgir.
Além de tudo que a gente falou, tem aquele filme — cujo título original é Sneakers, traduzido para o português como Quebra de Sigilo —
que é o de 92, né?
Com um grande elenco. Robert Redford e tal.
Os caras descobrem um equipamento — na verdade são hackers contratados para pegar um equipamento —, e aí descobrem que aquele equipamento conseguia decifrar qualquer tipo de criptografia.
Um decifrador. É, era um decifrador. Então é um pouco o que a gente ficava pensando: o que aconteceria se isso de fato existisse? O argumento do filme é muito bom, desses filmes hackers. E parece que está acontecendo mais ou menos isso. Claro, não quebrou os modelos criptográficos — pelo menos ainda não. Aí sim seria uma tragédia.
Deixa para a computação quântica.
É, Vinícius. Tivemos algumas alterações. Vou ser mais rápido aqui nessa próxima notícia — uma notícia histórica, no sentido de que tivemos atualizações de crimes digitais aqui no Brasil. A lei 15.397 atualizou sensivelmente — e na verdade aumentou — a pena de alguns crimes já existentes, como o furto qualificado digital, e trouxe também algumas coisas interessantes, como a criminalização da cessão de conta laranja para golpes.
O que temos: uma atualização no artigo 155, que é o furto, qualificando como crime — com pena de 4 a 10 anos — o furto mediante fraude por meio de dispositivo eletrônico ou informático, conectado ou não à rede de computadores, com auxílio de violação de mecanismo de segurança ou utilização de programa malicioso
ou por qualquer outro meio fraudulento análogo — que é quase exatamente a redação do art. 154-A, que é o crime de invasão de dispositivo informático. Mas para dar uma maior coerência — que aliás não é uma das qualidades do Código Penal Brasileiro, que é meio que uma colcha de retalhos — dá um pouco mais de coerência ao utilizar a mesma tipificação, mas aqui para a questão do furto qualificado. Pena importante: 4 a 10 anos. E ainda há um aumento de pena se os servidores — aqui os servidores técnicos, as máquinas — utilizados estiverem fora do Brasil, ou se o crime for praticado contra idoso ou vulnerável.
Lembrando que esse é o grosso do que temos de crimes informáticos hoje. Também há aumento de pena para furto ou roubo de aparelhos de telefonia celular, computador portátil ou tablet — que é o “computador do tipo prancheta”. Ainda bem que colocaram o “portátil do tipo prancheta”, porque senão imagine…
Exato. Porque em direito penal você não faz analogia para condenar, só para absolver. Então fico pensando nos donos de tablets…
O meu está aqui do meu lado, o meu tablet, que eu não abro mão.
Parece que está se referindo a um tablet. Mas essa nomenclatura chamou atenção: por que listar o equipamento? Por que não colocar algo mais genérico?
Não, mas ao listar o equipamento — você já deu a resposta: em direito penal, para condenar, precisa ter o tipo penal exatamente
e roubo genérico de eletrônico não serve.
Mas logo depois tem “ou de qualquer dispositivo eletrônico ou informático semelhante”. Pronto, resolveu o problema. Poderia ter colocado apenas “aparelho de telefonia celular ou computador” e terminado.
É o que você diria, né?
Enfim. Aplica-se também ao roubo dos mesmos dispositivos. Furto ou roubo que acontece muito em grandes centros como São Paulo: o cara está com o celular na mão e vem alguém
de bicicleta ou de moto e rouba.
Outra curiosidade: também aumentaram a pena do furto de animais domésticos — agora furtar um animal doméstico tem pena de 4 a 10 anos.
Aí tem a cessão de conta laranja — para quem cede gratuitamente
Isso. E isso é interessante.
Que aí entra nas fraudes, seria uma modalidade de estelionato: quem cede gratuitamente ou onerosamente conta bancária para que nela transitem recursos destinados ao financiamento de atividade criminosa. Tem uma certa questão aqui, porque muitos criminosos criam contas sem que o titular saiba. Obviamente, esse é um crime que exige o dolo do titular.
Uma coisa muito importante, Guilherme — a gente vai deixar o link: tem aquele serviço do Banco Central onde você entra e bloqueia a criação de novas contas em seu nome.
Sim. Acho que é muito pouco divulgado. Deveria ser mais divulgado. E na Receita Federal há uma opção para você bloquear a abertura de empresas em seu nome. São duas coisas muito úteis e que ajudam para esse caso de se abrir conta ou empresa sem a sua autorização. Agora, se você der autorização, aí está cometendo crime.
É, exatamente.
E a fraude eletrônica — pena de 4 a 8 anos — seria um tipo de estelionato. Se cometida com utilização de informações fornecidas pela vítima ou por terceiro induzido a erro por meio de redes sociais, contatos telefônicos, envio de e-mail fraudulento, duplicação de dispositivo eletrônico, clonagem ou qualquer outro meio fraudulento análogo. Essas fraudes que a gente conhece. A ideia foi dar uma sistematizada em tudo isso. Agora, claro que é importante — são crimes que estão assolando o Brasil diariamente. Todos nós, se não diariamente, ao menos semanalmente, recebemos tentativas desse tipo de fraude.
E aí a gente pensa: “Bom, mas é um problema de tipo penal? Faltava tipificação?” Talvez não faltasse para a maioria dos casos — a exceção talvez seja a cessão de conta laranja, que antes precisaria ser enquadrada como participação ou coautoria. Mas enfim, sistematizou, penas maiores, tudo bem. Porém, quantos desses crimes são efetivamente resolvidos no Brasil? Só em 2024, tivemos 2.166.552 casos de estelionato — quatro golpes por minuto, uma taxa de 1.019 ocorrências por 100.000 habitantes. Crescimento de 7.823% entre 2018 e 2020 — digo, ao longo desse período. O estelionato por meio eletrônico especificamente somou 281.000 casos. E há um problema: estados como São Paulo, Rio e Ceará registram todos os estelionatos de forma agregada, então o número real de estelionatos digitais pode ser ainda maior.
Qual a porcentagem desses casos que chegam à fase judicial? 2,4% dos casos registrados.
O vice-presidente do FBSP — Fórum Brasileiro de Segurança Pública, que faz o anuário brasileiro — afirmou que o risco de ser punido pelo cometimento de um estelionato é muito baixo, e quando o autor é identificado, no máximo ele irá repor o prejuízo causado. A Polícia Federal registrou quantos inquéritos de crimes digitais de alta complexidade em 2024? Cinquenta e cinco. Não 55.000, são 55. E até julho de 2025, a PF somava 30 novos inquéritos de crimes digitais.
Então, apesar de tudo, eu acredito que precisamos de outras coisas além de aumentar penas. Senão vira populismo penal, que é muito comum no Brasil: aumentar as penas para um determinado crime sem dar condições para que a polícia, o Ministério Público e os agentes de segurança envolvidos sejam mais bem treinados, recebam melhores recursos e ferramentas para lidar contra esses crimes. Esse é o problema maior: os órgãos de investigação não estão sendo municiados para conseguir lidar com isso. A gente já sentiu isso na pele. Não vou falar nenhum caso específico, mas em mais de uma situação… Esses dias você foi a uma palestra onde alguém comentou que não tem recursos, não tem como ir atrás.
É simples assim.
E bem chocante, sabe? Você imagina: a polícia já tem poucos recursos, não tem gente, não tem preparo suficiente, não tem uma série de coisas. Como vai atrás de um crime de R$ 100, 200, R$ 300?
Aqui está a continuação da transcrição corrigida:
Como vai atrás de um crime de R$ 100, R$ 200, R$ 300?
Eu não peguei o valor médio aqui, mas alguns desses valores são importantes. Eu já tive familiares que caíram com valores consideráveis.
Não, eu até conheço uma situação que chegou para mim de R$ 4.000.
Só que é tanto, é tanto e não dá em nada — no sentido de que eles não conseguem ir atrás. E ao mesmo tempo a gente tem coisas que poderiam ser mais facilmente feitas, que é, por exemplo, a Anatel controlar o uso de números, essas centrais telefônicas que ficam dando golpe. Não é possível que eles não tenham como controlar isso.
Porque você tem um comportamento ali que seria relativamente fácil de detectar, hoje com IA e tudo mais.
Não precisa sequer de IA para isso. Você tem bancos e tudo mais, você consegue fazer um cadastro de quem são essas empresas. Aí você pega um monte de entidades estranhas, desconhecidas, que começam a fazer ligações — centenas de milhares de ligações: liga e desliga, liga e desliga. Tem um padrão ali que você poderia resolver. Não precisa de IA para isso, só precisa de inteligência mesmo para ir atrás.
E no entanto, eu não recebo mais ligação de número desconhecido.
Saturou a plataforma.
Acabou.
Saturou a plataforma. Se alguém quiser me mandar um recado por número desconhecido, dane-se. Vai ter que achar outro jeito, porque por ali não vai.
O celular passa tocando, não tem o que fazer.
Eu ainda tenho um diferencial aqui: tem uma farmácia na região metropolitana que, em vez de usar o DDD local, usa o 055. Então eu recebo toda semana pessoas me perguntando quanto custa determinado medicamento. Mas enfim.
Por um lado interessante, por outro nem tanto. Talvez não precisássemos disso. E é claro que melhorar a legislação penal é importante, mas o que está por trás disso, o que está por baixo, é o que deveria realmente merecer a atenção do poder público. Não é um crime ocasional — é um crime que todo mundo sente na pele. Certo, Vinícius?
Certíssimo. Eu ia comentar mais sobre aquelas notícias dos bugs do Linux.
Pois é,
mas isso fica para uma próxima, porque surgiram dois bugs sérios. Temos duas notícias de bugs gravíssimos: o primeiro é o CVE do “Copyfile” — ou como está sendo chamado.
Que permite escalar privilégios no Linux, em todas as distribuições. É local — não é remoto. Um usuário local consegue se tornar root. Eu até fui procurar os detalhes da vulnerabilidade, mas o que chama atenção é que nos dois casos — e há um segundo caso agora, da semana passada para essa, que é o Dirty Frag — a divulgação responsável foi comprometida. Temos código e ferramentas para explorar essas vulnerabilidades já sendo distribuídas na internet antes da correção.
Antes da correção,
o que forçou os descobridores do problema a publicar tudo de uma vez, porque já estava circulando independentemente a forma de explorar essas vulnerabilidades.
Essas vulnerabilidades permitiriam, entre outras coisas, sair de dentro de um container Docker rodando no Linux e acessar, por exemplo, o restante do sistema operacional onde o Docker está hospedado.
Catastrófico.
É algo violento. Mas exige um pé inicial no servidor — o atacante precisa já ter algum acesso. Então, pessoal, muito cuidado com expor serviços na internet, abrir portas desnecessárias. Isso tem aparecido de forma recorrente quando a gente faz pentest, Guilherme.
Com frequência.
Tem sido comum encontrar serviços instalados para testes que ficaram lá, mal configurados, às vezes com senha padrão, às vezes com endpoints e APIs expostas que permitem acesso local à máquina — ao container Docker, por exemplo. A partir de uma vulnerabilidade dessas, como o CVE do Linux que mencionamos, é fatal.
O cara tem o pé lá dentro.
É fatal.
Então, de fato, não é porque a infraestrutura não está mais on-premises, não está mais dentro de casa, que alguém lá na Amazon, no GCP ou no Azure está cuidando da segurança por nós. Ao colocar algo no ar e expor um serviço na internet, mesmo que seja para um teste rápido: use uma VPN, no mínimo faça um filtro com base em IP — ainda que não seja tão efetivo, funciona. Mas não dá para ter grandes garantias nisso. Tenham cuidado, porque tem sido frequente encontrar esse tipo de situação. E pior: o pessoal esquece. Você sobe o serviço para testar, fica lá rodando, e você nem lembra mais que aquele serviço existe.
É o gerenciamento de infraestrutura.
Uma última notícia minha aqui, Vinícius: como a IA pode acabar com o anonimato. O que a jornalista Kelsey Piper conseguiu fazer foi descobrir que o Opus 4.7 da Anthropic é muito bom em fazer fingerprint de texto.
4.7, perdão.
É muito bom em fazer fingerprint de textos. Ela é uma jornalista com muitos textos publicados na internet, e começou a fazer testes: submetia para o Opus textos que ela nunca tinha publicado, guardados localmente, que nunca vazaram. E o Opus conseguiu identificar — ela chegou ao número de 125 palavras para que o Opus conseguisse reconhecer um texto dela. Ela também testou o inverso: pegar um texto que ela nunca publicou e verificar se o modelo afirmava que aquele texto foi escrito por ela, com base no estilo. E ele conseguiu.
Ela testou também com o GPT e com o Gemini — que é o patinho feio das IAs — e eles não conseguiram. Ela fez testes na web, via API, fez testes com amigos. O resultado sempre foi o mesmo. Chegou a colocar um texto de 15 anos atrás, da época em que estava na escola, e o modelo a identificou.
Não foi uma pesquisa científica — é um teste que ela fez mais informalmente. A hipótese dela é que isso vai funcionar melhor com pessoas que têm mais conteúdo escrito e identificado na internet. Ela é jornalista, publica todo dia. Mas a hipótese é que, pouco a pouco, a quantidade de dados necessária para identificar alguém vai diminuir. Isso é hipótese dela, a gente não sabe ao certo.
E aí isso passa a ser um problema sério para proteção de dados e privacidade. Você teve, ao longo das últimas décadas, uma série de pessoas se manifestando na internet de formas diferentes — não somente para cometer crimes, mas pessoas perseguidas por posicionamento político ou por orientação sexual, que queriam, com um certo manto de anonimato, se conectar com outras pessoas de gostos semelhantes. De repente, numa virada de chave, um modelo de IA pode descortinar o que essas pessoas escreveram no passado com relativa facilidade.
Claro, ainda não estamos falando de uso para fins de perícia judicial, porque existe uma ciência por trás disso para identificar plágios e padrões, feita por peritos. A grande reflexão é: de repente, o modelo consegue pegar um texto e dizer que foi o Vinícius que escreveu aquilo num fórum de jogo que ele nem se lembra mais, há 20 anos.
Fica tranquilo que a Palantir já deve estar fazendo isso.
Agora, pensando em usos interessantes: pegar textos antigos, textos bíblicos, todas aquelas discussões sobre a Bíblia histórica — de quem escreveu o quê, de onde veio determinado trecho —, ou as obras de Shakespeare, sobre as quais se diz que havia mais de um autor. Pode ser muito interessante, no nível da literatura. Descobrir fraudes e plágios também. Mas o problema maior aqui é essa questão de violação de privacidade e intimidade.
Perfeito. Pareceu uma claquete.
Para marcar. Tem alguma recomendação?
Ah, tem uns filmes velhos aí que a gente estava…
Pois é, eu queria falar dos filmes velhos. Fala rapidinho aí.
Tá. Eu até comprei um para assistir — deixa eu ver. Eu tenho aqui.
Você já comprou?
É, tem um que você vai me criticar. Deixa eu ver. Eu esqueci o nome. Deixa eu pegar.
Vai procurando aí. Eu queria sugerir um livro — lançado recentemente, no início desse ano — que é Sob a Sombra da Suástica, de uma professora que fez doutorado na França sobre um tema muito interessante: ela analisou a invasão da França pela Alemanha nazista sob a ótica de cartas de crianças. Um negócio bem tocante, porque você teve uma movimentação enorme de pessoas. Milhares de crianças se perderam durante essa dominação que dividiu a França em duas zonas — uma tomada pelos alemães, outra não —, pessoas fugindo e tudo mais.
Lembra um pouco daquilo que a gente vê em Bastardos Inglórios, aquela perseguição. Só que aqui é um livro de história. Ela simplifica a tese para explicar como se deu o cotidiano das pessoas durante essa ocupação — para pessoas normais, como nós, que gostam de história mas não são historiadores. É um livro bem interessante para quem quer entender esse momento histórico, sem ser necessariamente um especialista. A autora é Franciele Becker.
Eu estou tentando achar aqui os meus vídeos comprados.
Caiu num scam. Comprou o vídeo.
Caí no scam do Prime. Estou tentando achar.
Eu nunca comprei filme lá, sabia?
Eu já comprei sim. Mas são normalmente coisas antigas.
É que não tem, né? Aquela reflexão que a gente fazia: os streamings não conseguem ter coisas mais antigas e clássicas.
É.
Um deles era o Quebra de Sigilo, que é o Sneakers.
O outro era aquele do grupinho de crianças que descobria uma tecnologia alienígena e conseguia fazer uma nave envolta num campo de força. Era bem legal.
Isso é coisa muito velha. Eu até peguei para assistir
com as crianças.
Foi um filme que eu assisti quando era criança. Muito legal. Se alguém assistir hoje e achar ruim, não venha me culpar.
Mas é uma coisa interessante — quem é um pouco mais novo provavelmente não viu esse filme e não vai conseguir achar nos streamings, e não tem mais locadora.
Está no Prime, Apple TV também tem. É claro — se você conseguir localizar depois de comprar o filme.
Eu tenho aqui, vou colocar no show notes.
É um filme mais de fantasia, na linha de sessão da tarde.
A gente estava vendo no Just Watch.
Então vou deixar o Sneakers mesmo, porque esse é um filme de hacking bem legal.
Esse é um dos primeiros filmes de hacking que eu acho que assisti.
Eu tenho aqui no Prime também. E sobre isso, depois vieram outros filmes e tal.
É Viagem ao Mundo dos Sonhos, Vinícius.
Viagem ao Mundo dos Sonhos! Esse é o cara. Com Ethan Hawke, né? Quando era criança.
Bem criança.
Um negócio bem legal.
Tá bom. Vamos adiante. Então, agradecemos a todos e todas que nos acompanharam até aqui. Nos encontraremos no próximo episódio do podcast Segurança Legal. Até a próxima.
Até a próxima.
Podcast: Play in new window | Download
Subscribe: RSS

