The Great Unclick: Navigating the End of Web Traffic as We Know It

The Great Unclick: Navigating the End of Web Traffic as We Know It

On October 17, 2025, the Wikimedia Foundation, guardian of Wikipedia, reported an 8% year-over-year decline in human page views between March and August, after excluding automated traffic with stricter filters. This is not an isolated warning about a single site. This is the alarm bell for the entire open web. What we are witnessing is the beginning of the Great Unclick, a systemic crisis that threatens the fundamental economic model that has powered the internet for two decades. The identified culprits are the twin forces reshaping our digital landscape: the rise of generative AI search summaries and the profound behavioral shift of younger generations toward social video for information discovery.

Let me be clear: Wikipedia's vulnerability is the ultimate stress test for the digital publishing ecosystem. Here we have an entity that is a global public good, non-commercial, sustained by a global army of volunteers and donors. Its content is so fundamental that it serves as a basic and ubiquitous resource in the training data for the very Large Language Models (LLMs) that now cannibalize its audience. If this pillar of the internet, an entity that doesn't even depend on advertising revenue, is sounding the alarm about its own sustainability because fewer human visits reduce the potential base of editors and donors, directly affecting the project's long-term viability, this signals an existential threat of an entirely different magnitude for commercial publishers. For them, human traffic is not just a community; it's the commodity that sustains their entire business. This is not just another news cycle. It's a leading indicator of a potential widespread collapse of the ad-supported free content model that has defined the modern web.

Pillar 1: The AI Answer Engine - The End of the Click

For years, the contract between search engines and publishers was simple: publishers created content, and search engines sent traffic to them. That contract has been unilaterally terminated. Search engines are undergoing a fundamental transformation, from navigation directories (lists of links) to destination platforms that provide direct answers. Features like Google's AI Overviews are designed to intercept user intent at the top of the funnel. They consume and synthesize information from multiple publisher sites to generate a concise summary that often eliminates any need for the user to click through to the original sources. This act of value extraction without referral breaks the symbiotic relationship that built the modern web.

The data confirms this is not a distant threat; it's a present reality. The phenomenon has given rise to "zero-click searches," with recent estimates for the United States indicating that approximately 58.5% of Google searches result in no external clicks. Rates vary by country, device, and time window. For publishers, the impact is significant. Observational studies from companies like Authoritas suggest material drops in organic traffic when an AI summary is present, with double-digit declines in some sectors and extreme cases where a number one result falls below the AI block. According to MailOnline, their click-through rates drop more than 56% on desktop when an AI Overview is present. This aligns with findings from the Pew Research Center, which observed that when an AI summary appears, users click on a traditional result in only 8% of visits, compared to 15% without the summary, and the links cited within the summaries themselves generated clicks in only about 1% of visits.

This paradigm shift renders the very concept of the Search Engine Results Page (SERP) obsolete. We no longer operate on a SERP, whose value lies in its list of links. We are now in an Answer Engine Interface (AEI), where the value is the synthesized answer itself. Links, if they appear at all, are relegated to footnote status. This demands a complete strategic overhaul. The goal of Search Engine Optimization (SEO) was to become the most attractive link on the results page. The new goal of Generative Engine Optimization (GEO), which I've written about previously, is to become an indispensable ingredient in the answer the AI serves. Traditional metrics like ranking and click-through rate are becoming vanity metrics. The new and harder-to-measure benchmark is "source influence," the degree to which your proprietary data and unique frameworks shape the AI's final answer.

Faced with this evidence from publishers, Google's official position is that aggregate organic click volume has remained relatively stable year-over-year, with the company pointing to higher-quality clicks. This narrative is not a reflection of market reality; it's a carefully constructed legal and market positioning shield. With the company facing significant antitrust and copyright litigation, admitting that its flagship AI product systematically cannibalizes traffic from the very creators it depends on would be a direct admission of market harm. By framing the shift as a traffic diversion to a broader range of people, including forums and video creators, Google can argue it's fostering innovation, not monopolizing value. This is a macro-level defense that deliberately obscures the micro-level reality: creators of fundamental, high-cost knowledge, like journalism and research, are being systematically defunded, while value accumulates on the platform that summarizes their work.

Pillar 2: The TikTok Search Bar - The Reconfiguration of Discovery

Simultaneous with this technological upheaval is a profound sociological shift. A growing cohort of users, especially younger demographics, is abandoning traditional text-based search in favor of short-form video platforms. According to an Adobe survey, more than two in five Americans report using TikTok as a search engine, with nearly one in ten Gen Z members preferring it to Google in some contexts. This is not just a preference for a new format; it represents a fundamental change in the very cognitive process of information seeking. It's a turn toward speed, visual stimulation, and low-friction consumption, at the expense of deep and critical engagement.

This behavioral shift has roots in psychology. The short-form video format is perfectly adapted to our declining attention spans, which Professor Gloria Mark's research on screen-based knowledge work shows have decreased to an average of just 47 seconds of focus per screen. These platforms are designed for instant gratification, providing dopamine hits that create powerful habit loops, keeping users scrolling. The content is perceived as more authentic and direct, a sharp contrast to the polished and often dense long-form content of the traditional web.

This transition represents a shift from what I call the Socratic model of inquiry to a declarative model of consumption, and the implications for critical thinking are significant. The traditional web search model is Socratic: a user poses a question and receives multiple sources, often contradictory, in the form of links. The user is then required to perform the cognitive work of evaluation, comparison, and synthesis to arrive at an understanding. The social video search model, by contrast, is declarative: a user asks a question and receives a direct, pre-synthesized, emotionally resonant answer in under 60 seconds. The cognitive load is externalized to the creator or the algorithm. A troubling early data point comes from an EEG study from the MIT Media Lab (a preprint with initial findings) that indicated ChatGPT use for writing tasks resulted in significantly less connectivity in brain networks associated with cognitive processing, attention, and creativity. The broader social risk is a potential atrophy of media literacy and critical reasoning skills, as we become a society conditioned to accept pre-packaged answers rather than engaging in the messy but essential process of discovery and verification.

Pillar 3: The New Architecture of Authority - From Discoverable to Indispensable

In a world of zero-click searches and AI-synthesized answers, the old rules of visibility are no longer sufficient. The new imperative is to transition from a discovery strategy (SEO) to one of indispensability (GEO). This requires architecting a digital presence so authoritative, unique, and structurally solid that AI models are compelled to rely on it as a foundational source. The goal is no longer to be a signpost pointing to the destination; it's to become part of the destination itself.

This strategic shift is echoed by industry analysts, who urge a move from chasing rankings to earning trust signals and optimizing for what is now being called Answer Engine Optimization (AEO) or GEO. The core tactics involve building a new kind of authority based on three pillars:

First, Semantic Depth. In a world where AI can generate generic content effortlessly, economic value migrates to what it cannot replicate: proprietary frameworks, original research, and unique data-driven analyses. AI excels at summarizing common knowledge but struggles with deep, innovative insights. Creating content with this level of depth makes it AI-resistant when it comes to summaries without significant loss of value.

Second, Entity Authority. We must move beyond the old metric of domain authority to build a computationally verifiable entity. This is an act of meticulous information architecture. It involves using structured data like Schema.org to explicitly declare authorship, credentials, and relationships, and connecting your digital identity to established knowledge graphs like Wikidata.

Third, Conversational Resonance. Authority is validated through engagement. Participation in high-quality digital conversations in expert forums and industry discussions creates a digital trail. This trail of insightful comments and debates is indexed and analyzed by AIs, serving as a dynamic, real-time validation of your expertise and reinforcing your entity's authority.

What underpins this new architecture is a shift in the currency of trust. Traditional SEO authority was built on backlinks, an indicator of human trust, where one publisher vouched for another's content. An AI model does not vouch in this human sense. It calculates credibility based on a different set of signals. I call this new currency Computational Trust, a measure of machine-readable credibility. An AI assesses trust by asking questions that can be answered with data: Is the author a recognized entity in a knowledge graph? Is the content marked with clear and unambiguous Schema? Does the entity possess consistent digital identifiers, like an ORCID for an academic? Building authority is now as much an act of data engineering as content creation. It requires making your expertise readable to an algorithm, transforming your reputation from an abstract concept into a set of verifiable data points.

The Legal Minefield: Copyright, Fair Use, and the Coming Reckoning

As a lawyer, my analysis would be incomplete without addressing the complex legal terrain underpinning this entire ecosystem. The generative AI revolution was built on a legally tenuous premise: that the unauthorized ingestion of vast amounts of copyrighted data for model training constitutes fair use. This premise is now being aggressively challenged in courts and scrutinized by regulators, creating an existential legal risk for AI developers and signaling a potential and necessary transition to a licensed data economy.

The central battlefield is the landmark case of The New York Times v. OpenAI & Microsoft. The Times alleges direct copyright infringement, arguing that OpenAI used millions of its articles without permission to train models that now generate outputs that are direct substitutes for its original journalism, thus causing direct market harm. OpenAI's defense rests on the four factors of fair use, claiming that its process is transformative because the purpose is to learn statistical patterns, not reproduce the original works. They compare their data ingestion to how search engines index the web.

This search engine analogy, however, is a legally contested comparison facing significant challenges in court. The precedents that protected search engines under fair use did so because their function was to create a new utility (searchability) that ultimately directed traffic back to the original source. The use was transformative and did not replace the original's market. Generative AI, by its very design, does the opposite. Its function is to synthesize and summarize, thus preventing a visit to the original source. It directly substitutes for the original's market by providing a good-enough replacement. The central legal precedent that AI companies rely on rests on a fundamentally different value exchange.

This distinction is not lost on regulators. The U.S. Copyright Office has been actively studying these issues. The legal outcome remains open, with recent judicial signals pointing in different directions. However, the U.S. Copyright Office's guidance (notably its March 2023 guidance and the 2025 Part 3 report) reinforces a case-by-case analysis with special emphasis on market impact, rejecting a blanket fair use defense for AI training. The Office reaffirmed that human authorship is paramount, declaring that AI-generated works without sufficient human creative control are not copyrightable, and that text prompts alone are insufficient to claim authorship.

This legal battle is more than a dispute over compensation; it's a proxy war for the future of factual attribution and a trustworthy information ecosystem. A key allegation in the NYT lawsuit is the removal of Copyright Management Information (CMI), the bylines, source data, and other markers of provenance. When an AI presents information stripped of its source, it becomes a black box with the sound of authority. The user loses the ability to perform the most fundamental act of critical thinking: considering the source. This opacity allows AI hallucinations to spread with a veneer of credibility and makes it impossible to trace information back to its human creators. A legal victory for copyright holders, therefore, is not just about financial compensation. It's a victory for the principle of attribution, the essential mechanism for accountability, verification, and trust in any information system. Without it, we enter an era of computational hearsay.

Conclusion: It's Not About Getting Clicks Back, It's About Redefining Value

The era of the click as the primary unit of value for digital content is over. The strategic and legal battles I've described are not about turning back the clock to recover lost traffic. They're about forging a new economic and structural foundation for the internet, one where value is recognized and compensated at the point of AI ingestion, not at the point of a click that may never come.

The Great Unclick is the result of a pincer movement: the technological efficiency of AI on one side, and a generational shift in user behavior on the other. Both forces devalue the click. The response must therefore be twofold. Strategically, through GEO, we must re-architect our digital presence to be computationally indispensable. Legally, through copyright enforcement, we must compel the new information gatekeepers to recognize that indispensability with fair compensation.

The ultimate goal is to force what I call a value recoupling. The current market failure is a value decoupling, where the immense value of high-quality human-generated content has been separated from its monetization mechanism. The combined pressure of making your data technically essential (GEO) and making its unlicensed use legally and financially unsustainable (litigation) is the only path to forcing a recoupling. This new connection will not manifest as traffic, but as direct value exchange: licensing fees, revenue-sharing agreements for answers generated with your data, and deep data partnerships.

The final evolution requires a mindset shift. We must stop thinking like publishers looking for an audience and start thinking like providers of foundational data that fuel an ecosystem. The question I posed in my last article remains the central challenge, now with greater urgency than ever: Stop asking, how am I found online? and start asking, how do I become the foundation? The answer to that question will define who thrives and who becomes a forgotten ingredient in the age of artificial intelligence.


O Grande Desclique: Navegando o Fim do Tráfego Web como o Conhecemos

Em 17 de outubro de 2025, a Fundação Wikimedia, guardiã da Wikipedia, reportou uma queda de 8% ano a ano nas visualizações de página por humanos entre março e agosto, após excluir tráfego automatizado com filtros mais rígidos. Este não é um alerta isolado sobre um único site. Este é o sinal de alarme para toda a web aberta. O que estamos testemunhando é o início do Grande Desclique, uma crise sistêmica que ameaça o modelo econômico fundamental que alimentou a internet durante duas décadas. Os culpados identificados são as forças gêmeas que estão remodelando nossa paisagem digital: a ascensão dos resumos de pesquisa por inteligência artificial generativa e a profunda mudança comportamental das gerações mais jovens em direção ao vídeo social para a descoberta de informação.

Deixe-me ser claro: a vulnerabilidade da Wikipedia é o teste de estresse definitivo para o ecossistema de publicação digital. Temos aqui uma entidade que é um bem público global, não comercial, sustentada por um exército global de voluntários e doadores. Seu conteúdo é tão fundamental que serve como recurso básico e onipresente nos dados de treinamento para os mesmos Modelos de Linguagem de Grande Escala (LLMs) que agora canibalizam sua audiência. Se este pilar da internet, uma entidade que nem sequer depende de receitas de publicidade, está soando o alarme sobre sua própria sustentabilidade porque menos visitas humanas reduzem a base potencial de editores e doadores, afetando diretamente a viabilidade do projeto a longo prazo, isso sinaliza uma ameaça existencial de magnitude completamente diferente para editores comerciais. Para eles, o tráfego humano não é apenas uma comunidade; é a mercadoria que sustenta todo o seu negócio. Isto não é apenas mais um ciclo de notícias. É um indicador avançado de um potencial colapso generalizado do modelo de conteúdo gratuito sustentado por publicidade que definiu a web moderna.

Pilar 1: O Motor de Respostas de IA - O Fim do Clique

Durante anos, o contrato entre os motores de busca e os editores era simples: os editores criavam conteúdo, e os motores de busca enviavam tráfego para eles. Esse contrato foi unilateralmente rescindido. Os motores de busca estão passando por uma transformação fundamental, de diretórios de navegação (listas de links) para plataformas de destino que fornecem respostas diretas. Funcionalidades como os AI Overviews do Google são projetadas para interceptar a intenção do usuário no topo do funil. Consomem e sintetizam informação de múltiplos sites de editores para gerar um resumo conciso que, muitas vezes, elimina qualquer necessidade de o usuário clicar para acessar as fontes originais. Este ato de extração de valor sem referência quebra a relação simbiótica que construiu a web moderna.

Os dados confirmam que esta não é uma ameaça distante; é uma realidade presente. O fenômeno deu origem às "pesquisas de zero cliques", com estimativas recentes para os Estados Unidos indicando que cerca de 58,5% das pesquisas no Google não resultam em cliques externos. As taxas variam por país, dispositivo e janela temporal. Para os editores, o impacto é significativo. Estudos observacionais de empresas como a Authoritas sugerem quedas materiais de tráfego orgânico quando um resumo de IA está presente, com declínios de dois dígitos em alguns setores e casos extremos em que um resultado número um cai abaixo do bloco de IA. Segundo o MailOnline, suas taxas de cliques caem mais de 56% no desktop quando um AI Overview está presente. Isso se alinha com as conclusões do Pew Research Center, que observou que, quando um resumo de IA aparece, os usuários clicam em um resultado tradicional em apenas 8% das visitas, em comparação com 15% sem o resumo, e os links citados dentro dos próprios resumos geraram cliques em apenas cerca de 1% das visitas.

Esta mudança de paradigma torna obsoleto o próprio conceito de Página de Resultados do Motor de Busca (SERP). Já não operamos em uma SERP, cujo valor reside na sua lista de links. Estamos agora em uma Interface de Motor de Respostas (AEI), onde o valor é a própria resposta sintetizada. Os links, se é que aparecem, são relegados ao status de notas de rodapé. Isso exige uma revisão estratégica completa. O objetivo da Otimização para Motores de Busca (SEO) era tornar-se o link mais atraente na página de resultados. O novo objetivo da Otimização para Motores Generativos (GEO), sobre a qual já escrevi anteriormente, é tornar-se um ingrediente indispensável na resposta que a IA serve. Métricas tradicionais como o ranking e a taxa de cliques estão se tornando métricas de vaidade. O novo e mais difícil de medir ponto de referência é a "influência da fonte", o grau em que seus dados proprietários e frameworks únicos moldam a resposta final da IA.

Diante desta evidência por parte dos editores, a posição oficial do Google é que o volume agregado de cliques orgânicos permaneceu relativamente estável em termos anuais, com a empresa apontando para cliques de maior qualidade. Esta narrativa não é um reflexo da realidade do mercado; é um escudo de posicionamento legal e de mercado cuidadosamente construído. Com a empresa enfrentando litígios significativos de antitruste e de direitos autorais, admitir que seu principal produto de IA canibaliza sistematicamente o tráfego dos próprios criadores de quem depende seria uma admissão direta de dano ao mercado. Ao enquadrar a mudança como um desvio de tráfego para uma fonte mais ampla de pessoas, incluindo fóruns e criadores de vídeo, o Google pode argumentar que está fomentando a inovação, e não monopolizando o valor. Esta é uma defesa em nível macro que obscurece deliberadamente a realidade em nível micro: os criadores de conhecimento fundamental e de alto custo, como o jornalismo e a pesquisa, estão sendo sistematicamente desfinanciados, enquanto o valor se acumula na plataforma que resume seu trabalho.

Pilar 2: A Barra de Pesquisa do TikTok - A Reconfiguração da Descoberta

Simultânea a esta convulsão tecnológica está uma profunda mudança sociológica. Um grupo crescente de usuários, especialmente as demografias mais jovens, está abandonando a pesquisa tradicional baseada em texto em favor de plataformas de vídeo de formato curto. Segundo uma pesquisa da Adobe, mais de dois em cada cinco americanos reportam usar o TikTok como motor de busca, com quase um em cada dez membros da Geração Z preferindo-o ao Google em alguns contextos. Isso não é apenas uma preferência por um novo formato; representa uma mudança fundamental no próprio processo cognitivo de busca de informação. É uma virada em direção à velocidade, ao estímulo visual e ao consumo de baixo atrito, em detrimento do engajamento profundo e crítico.

Esta mudança comportamental tem raízes na psicologia. O formato de vídeo curto está perfeitamente adaptado às nossas decrescentes capacidades de atenção, que a pesquisa da Professora Gloria Mark sobre trabalho de conhecimento em frente a telas mostra terem diminuído para uma média de apenas 47 segundos de foco por tela. Estas plataformas são projetadas para a gratificação instantânea, proporcionando descargas de dopamina que criam poderosos ciclos de hábito, mantendo os usuários navegando. O conteúdo é percebido como mais autêntico e direto, um contraste acentuado com o conteúdo polido, e muitas vezes denso, de formato longo da web tradicional.

Esta transição representa uma passagem do que eu chamo de modelo socrático de investigação para um modelo declarativo de consumo, e as implicações para o pensamento crítico são significativas. O modelo tradicional de pesquisa na web é socrático: um usuário coloca uma questão e recebe múltiplas fontes, muitas vezes contraditórias, na forma de links. O usuário é então obrigado a realizar o trabalho cognitivo de avaliação, comparação e síntese para chegar a um entendimento. O modelo de pesquisa em vídeo social, pelo contrário, é declarativo: um usuário faz uma pergunta e recebe uma resposta direta, pré-sintetizada e emocionalmente ressonante em menos de 60 segundos. A carga cognitiva é externalizada para o criador ou para o algoritmo. Um dado inicial e preocupante vem de um estudo com EEG do MIT Media Lab (um pré-print com descobertas iniciais) que indicou que o uso do ChatGPT para tarefas de escrita resultou em significativamente menos conectividade nas redes cerebrais associadas ao processamento cognitivo, atenção e criatividade. O risco social mais amplo é uma potencial atrofia da literacia midiática e das competências de raciocínio crítico, à medida que nos tornamos uma sociedade condicionada a aceitar respostas pré-embaladas em vez de nos envolvermos no processo confuso, mas essencial, de descoberta e verificação.

Pilar 3: A Nova Arquitetura de Autoridade - De Descoberto a Indispensável

Em um mundo de pesquisas de zero cliques e respostas sintetizadas por IA, as antigas regras de visibilidade já não são suficientes. O novo imperativo é transitar de uma estratégia de descoberta (SEO) para uma de indispensabilidade (GEO). Isso requer a arquitetura de uma presença digital tão autoritária, única e estruturalmente sólida que os modelos de IA sejam compelidos a confiar nela como uma fonte fundamental. O objetivo já não é ser uma placa apontando para o destino; é tornar-se parte do próprio destino.

Esta mudança estratégica é ecoada por analistas da indústria, que instam a uma passagem da perseguição de rankings para a conquista de sinais de confiança e otimização para o que agora está sendo chamado de Otimização para Motores de Resposta (AEO) ou GEO. As táticas centrais envolvem a construção de um novo tipo de autoridade baseada em três pilares:

Primeiro, a Profundidade Semântica. Em um mundo onde a IA pode gerar conteúdo genérico sem esforço, o valor econômico migra para o que ela não consegue replicar: frameworks proprietários, pesquisa original e análises únicas baseadas em dados. A IA se sobressai em resumir conhecimento comum, mas tem dificuldades com insights profundos e inovadores. Criar conteúdo com este nível de profundidade o torna resistente à IA no que toca a resumos sem uma perda significativa de valor.

Segundo, a Autoridade de Entidade. Devemos ir além da antiga métrica de autoridade de domínio para construir uma entidade computacionalmente verificável. Este é um ato de arquitetura de informação meticulosa. Envolve o uso de dados estruturados como o Schema.org para declarar explicitamente autoria, credenciais e relações, e conectar sua identidade digital a grafos de conhecimento estabelecidos como o Wikidata.

Terceiro, a Ressonância Conversacional. A autoridade é validada através do engajamento. A participação em conversas digitais de alta qualidade em fóruns de especialistas e discussões da indústria cria um rastro digital. Este rastro de comentários e debates perspicazes é indexado e analisado pelas IAs, servindo como uma validação dinâmica e em tempo real da sua expertise e reforçando a autoridade da sua entidade.

O que sustenta esta nova arquitetura é uma mudança na moeda da confiança. A autoridade de SEO tradicional foi construída com base em backlinks, um indicador para a confiança humana, onde um editor atestava o conteúdo de outro. Um modelo de IA não atesta neste sentido humano. Calcula a credibilidade com base em um conjunto diferente de sinais. Eu chamo esta nova moeda de Confiança Computacional, uma medida de credibilidade legível por máquina. Uma IA avalia a confiança fazendo perguntas que podem ser respondidas com dados: O autor é uma entidade reconhecida em um grafo de conhecimento? O conteúdo está marcado com Schema claro e inequívoco? A entidade possui identificadores digitais consistentes, como um ORCID para um acadêmico? Construir autoridade é agora tanto um ato de engenharia de dados como de criação de conteúdo. Requer tornar sua expertise legível para um algoritmo, transformando sua reputação de um conceito abstrato em um conjunto de pontos de dados verificáveis.

O Campo Minado Jurídico: Direitos Autorais, Fair Use e o Acerto de Contas Iminente

Como advogado, minha análise estaria incompleta sem abordar o complexo terreno jurídico que sustenta todo este ecossistema. A revolução da IA generativa foi construída sobre uma premissa legalmente tênue: que a ingestão não autorizada de enormes quantidades de dados protegidos por direitos autorais para treinamento de modelos constitui fair use. Esta premissa está agora sendo agressivamente desafiada nos tribunais e escrutinada pelos reguladores, criando um risco legal existencial para os desenvolvedores de IA e sinalizando uma potencial e necessária transição para uma economia de dados licenciados.

O campo de batalha central é o caso marcante do The New York Times v. OpenAI & Microsoft. O Times alega violação direta de direitos autorais, argumentando que a OpenAI usou milhões dos seus artigos sem permissão para treinar modelos que agora geram resultados que são substitutos diretos do seu jornalismo original, causando assim dano direto ao mercado. A defesa da OpenAI baseia-se nos quatro fatores do fair use, alegando que seu processo é transformativo porque o objetivo é aprender padrões estatísticos, não reproduzir as obras originais. Eles comparam sua ingestão de dados à forma como os motores de busca indexam a web.

Esta analogia com os motores de busca, no entanto, é uma comparação legalmente contestada que enfrenta desafios significativos em tribunal. Os precedentes que protegeram os motores de busca sob o fair use fizeram-no porque sua função era criar uma nova utilidade (a capacidade de pesquisa) que, em última análise, direcionava o tráfego de volta para a fonte original. O uso era transformativo e não substituía o mercado do original. A IA generativa, pelo seu próprio design, faz o oposto. Sua função é sintetizar e resumir, impedindo assim uma visita à fonte original. Substitui diretamente o mercado do original ao fornecer um substituto suficientemente bom. O precedente legal central em que as empresas de IA se baseiam assenta em uma troca de valor fundamentalmente diferente.

Esta distinção não passa despercebida aos reguladores. O U.S. Copyright Office tem estudado ativamente estas questões. O desfecho jurídico permanece em aberto, com sinais judiciais recentes apontando em diferentes direções. No entanto, as orientações do U.S. Copyright Office (nomeadamente sua orientação de março de 2023 e o relatório Parte 3 de 2025) reforçam uma análise caso a caso com especial destaque para o impacto no mercado, rejeitando uma defesa de fair use generalizada para o treinamento de IA. O Office reafirmou que a autoria humana é primordial, declarando que obras geradas por IA sem controle criativo humano suficiente não são passíveis de direitos autorais, e que os prompts de texto por si só são insuficientes para reivindicar autoria.

Esta batalha legal é mais do que uma disputa sobre compensação; é uma guerra por procuração pelo futuro da atribuição factual e de um ecossistema de informação confiável. Uma alegação chave no processo do NYT é a remoção da Informação de Gestão de Direitos Autorais (CMI), as assinaturas, dados da fonte e outros marcadores de proveniência. Quando uma IA apresenta informação despojada da sua fonte, torna-se uma caixa preta com som de autoridade. O usuário perde a capacidade de realizar o ato mais fundamental do pensamento crítico: considerar a fonte. Esta opacidade permite que as alucinações da IA se espalhem com um verniz de credibilidade e torna impossível rastrear a informação até aos seus criadores humanos. Uma vitória legal para os detentores de direitos autorais, portanto, não é apenas sobre remuneração financeira. É uma vitória para o princípio da atribuição, o mecanismo essencial para a responsabilidade, verificação e confiança em qualquer sistema de informação. Sem ele, entramos em uma era de boatos computacionais.

Conclusão: Não se Trata de Retomar Cliques, Trata-se de Redefinir Valor

A era do clique como a unidade primária de valor para o conteúdo digital acabou. As batalhas estratégicas e legais que descrevi não são sobre voltar atrás no tempo para recuperar o tráfego perdido. São sobre forjar uma nova fundação econômica e estrutural para a internet, uma onde o valor é reconhecido e compensado no ponto de ingestão pela IA, não no ponto de um clique que pode nunca chegar.

O Grande Desclique é o resultado de um movimento de pinça: a eficiência tecnológica da IA de um lado, e uma mudança geracional no comportamento do usuário do outro. Ambas as forças desvalorizam o clique. A resposta deve, portanto, ser dupla. Estrategicamente, através do GEO, devemos rearquitetar nossa presença digital para sermos computacionalmente indispensáveis. Legalmente, através da aplicação dos direitos autorais, devemos compelir os novos guardiões da informação a reconhecer essa indispensabilidade com uma compensação justa.

O objetivo final é forçar o que eu chamo de um reacoplamento de valor. A falha de mercado atual é um desacoplamento de valor, onde o imenso valor do conteúdo de alta qualidade gerado por humanos foi separado do seu mecanismo de monetização. A pressão combinada de tornar seus dados tecnicamente essenciais (GEO) e tornar seu uso não licenciado legal e financeiramente insustentável (litígio) é o único caminho para forçar um reacoplamento. Esta nova ligação não se manifestará como tráfego, mas como troca de valor direta: taxas de licenciamento, acordos de partilha de receitas por respostas geradas com seus dados, e parcerias de dados profundas.

A evolução final requer uma mudança de mentalidade. Devemos deixar de pensar como editores à procura de uma audiência e começar a pensar como fornecedores de dados fundamentais que alimentam um ecossistema. A pergunta que coloquei no meu último artigo permanece o desafio central, agora com uma urgência maior do que nunca: Parem de perguntar, como sou encontrado online? e comecem a perguntar, como me torno a fundação? A resposta a essa pergunta definirá quem prospera e quem se torna um ingrediente esquecido na era da inteligência artificial.

Muito interessante o conteúdo!

To view or add a comment, sign in

More articles by Dr. Faustino Júnior

Others also viewed

Explore content categories