Tecnologia não é neutra: um ensaio honesto (sobre poder, escolhas e consequências)

Indagação provocante: e se a tecnologia que você chama de “ferramenta” já vier, de fábrica, com uma ideia embutida de quem manda, quem perde e como você deve viver?

Resposta direta: tecnologia não é neutra porque ela carrega valores em três camadas: (1) no design (o que é fácil/difícil, permitido/proibido), (2) nos dados e modelos (quem é “padrão”, quem vira “erro”), e (3) nos incentivos do sistema (o que é recompensado: atenção, lucro, vigilância, velocidade). Isso é uma tese clássica na filosofia/estudos sociais da tecnologia (Winner) (Instituto de Geociências) e também um debate contemporâneo explícito contra a “tese da neutralidade” (Miller, 2021). (PhilPapers)

Atenção: este texto é informativo. “Tecnologia não é neutra” não significa “tecnologia é malvada”. Significa que ela organiza o mundo — e, quando a gente finge neutralidade, deixa decisões políticas e éticas acontecerem no piloto automático.


A história real por trás do “é só um app…”

Determinada pessoa baixou um app para “se informar melhor”.
No começo, era ótimo: notícias rápidas, vídeos curtos, comentários.

Meses depois, ela percebeu um fenômeno estranho:

  • estava mais irritada,
  • mais confusa,
  • com menos paciência para leituras longas,
  • e com a sensação de que “todo mundo enlouqueceu”.

Ela concluiu: “o problema sou eu.”

Mas havia uma pergunta mais incômoda:
e se o app tivesse sido desenhado para maximizar tempo de tela, não clareza? Demonstrar conflito, não contexto?

Não é teoria da conspiração. É modelo de negócio.

E aí vem o ponto central do ensaio: quando tecnologia vira infraestrutura da vida, “design” vira destino — se ninguém discutir.


1) “Artefatos têm política”: tecnologia como forma de construir ordem

Langdon Winner ficou famoso por uma provocação simples: tecnologias e sistemas técnicos não são apenas meios; eles podem embutir formas de poder e “construir ordem” no mundo. (Instituto de Geociências)

A pergunta honesta não é “isso funciona?”.
É também:

  • para quem funciona melhor?
  • quem paga o custo?
  • que tipo de comportamento isso força?
  • que tipo de sociedade isso torna ‘normal’?

2) O mito confortável: “não é a tecnologia, é o uso”

O argumento “a tecnologia é neutra; o problema é o uso” é sedutor porque desloca responsabilidade para o indivíduo.

Mas a filosofia contemporânea discute exatamente por que a neutralidade (VNT) é fraca: tecnologias são projetadas, implementadas e padronizadas com valores e pressupostos — e isso afeta consequências. (PhilPapers)

Exemplo simples:
um feed que recompensa indignação com alcance “não é neutro”. Ele é uma máquina de seleção cultural.


3) Onde a não-neutralidade mora de verdade: escolhas pequenas que viram vida inteira

Tecnologia carrega valores em “microdecisões”:

  • o que vem ativado por padrão,
  • quais ações ficam a um clique,
  • quais exigem 10 telas,
  • o que aparece primeiro,
  • o que é escondido,
  • o que vira “métrica de sucesso”.

Essa visão “design para valores” aparece de forma explícita em abordagens contemporâneas de ética e design tecnológico (ex.: Delft Design for Values). (Delft Design for Values Institute)


4) Dados não são “espelho”: são recorte (e recorte tem lado)

Quando um sistema usa dados do mundo, ele herda desigualdades do mundo — e pode amplificá-las.

Um campo onde isso ficou muito documentado é reconhecimento facial e viés demográfico. Revisões recentes discutem disparidades por raça/etnia, gênero e tom de pele, causas e tentativas de mitigação. (MDPI)

Tradução humana:
se o modelo foi treinado/testado com um “padrão” que não te inclui, você pode virar erro estatístico — com consequências reais (especialmente quando usado em segurança, acesso, policiamento).


5) Recomendação não é “só sugestão”: é arquitetura de atenção

Sistemas de recomendação (feeds) organizam o que você vê, quando vê, e por quanto tempo fica.

O debate sobre polarização e recomendação está vivo e é complexo:

  • há evidências de efeitos condicionais (pode aumentar ou diminuir exposição seletiva dependendo do design do sistema) (OUP Academic)
  • há estudos que encontram efeitos pequenos/estatisticamente detectáveis em alguns cenários (eScholarship)
  • e há trabalhos que não detectam efeitos polarizadores de curto prazo em certas exposições controladas. (PNAS)

Ainda assim, revisões recentes chamam atenção para impactos globais de recomendadores em temas como desinformação, vício, privacidade e viés — e criticam o descompasso entre influência real e escrutínio efetivo. (ScienceDirect)

Tradução honesta:
não dá para resumir em “rede social polariza sempre”.
Mas dá para afirmar: o design do recomendador é uma decisão política sobre o que ganha visibilidade.


6) O problema não é “tecnologia”: é tecnologia sem governança + sem alfabetização

Tem um jeito perigoso de discutir tecnologia: fatalismo.

A ideia de “não tem o que fazer, é assim mesmo” é um mito moderno muito criticado em STS (Science and Technology Studies). (UOC)

O oposto de neutralidade não é “pânico”.
É responsabilidade:

  • auditoria,
  • transparência proporcional ao risco,
  • avaliação de impacto,
  • regulação inteligente,
  • escolhas de design orientadas por valores.

7) Exemplo concreto: “automatização” que vira autoridade (e ninguém percebe)

Quando um sistema dá um resultado, a mente humana tende a dar um peso excessivo: é o famoso automation bias (não é “burrice”; é atalho cognitivo).

Agora imagine isso em:

  • contratação,
  • crédito,
  • policiamento,
  • saúde,
  • educação.

O ponto do ensaio é: um sistema técnico pode virar autoridade social sem debate público — se parecer “objetivo”.

E “objetivo”, aqui, muitas vezes é só “opaco”.


8) Como viver com essa verdade sem virar cínico(a): 5 perguntas que mudam tudo

Quando você usar uma tecnologia (ou colocar uma no seu trabalho/projeto), pergunte:

  1. Qual comportamento isso recompensa? (tempo? conflito? clareza?)
  2. Quem é beneficiado e quem é prejudicado?
  3. O que fica invisível por design?
  4. Que valores viram padrão (por default)?
  5. Qual é o plano de prestação de contas quando der errado?

Isso é “tecnologia não neutra” em modo prático.


Plano de 10 minutos (hoje) para aplicar o ensaio na vida real

  1. Pegue um app que você usa todo dia.
  2. Escreva: “ele me recompensa quando eu _____”.
  3. Desligue 1 notificação que te empurra para o automático.
  4. Mude 1 padrão (default) que te controla (autoplay, push, sugestões).
  5. Escolha 1 fonte/forma de consumo “lenta” (texto longo, livro, conversa) esta semana.

Não é moralismo. É recuperar agência.


Fechamento mais incisivo

Tecnologia não é neutra porque ela decide, silenciosamente:

  • o que é fácil,
  • o que é difícil,
  • o que é visível,
  • o que é invisível,
  • e que tipo de pessoa você precisa virar para “dar certo” no sistema.

Fingir neutralidade é a forma mais elegante de deixar o poder operar sem ser nomeado.

E, na prática, a pergunta que muda o jogo é:

quem está desenhando o seu cotidiano — você, ou o sistema?


Referências (base científica e acadêmica)

  • Winner, L. — “Artefatos têm política?” (tradução/edição amplamente usada em cursos) (Instituto de Geociências)
  • Miller, B. (2021) — Is Technology Value-Neutral? (crítica à tese da neutralidade) (PhilPapers)
  • Delft Design for Values (2024) — Handbook of Ethics, Values and Technological Design (Delft Design for Values Institute)
  • Revisões sobre viés em reconhecimento facial (2024–2025) (MDPI)
  • Recomendadores e impactos sociais (2023–2025; evidência mista e condicionada) (OUP Academic)
  • Discussão STS contemporânea sobre “tecnologia nunca é neutra” e crítica ao fatalismo (UOC)

Leituras complementares (links confiáveis)

https://www.ige.unicamp.br/cact/wp-content/uploads/sites/2/2018/08/WINNER-1986-Artefatos-t%C3%AAm-politica.pdf
https://philpapers.org/archive/MILITV-3.pdf
https://www.delftdesignforvalues.nl/resources/handbook-of-ethics-values-and-technological-design/
https://pmc.ncbi.nlm.nih.gov/articles/PMC11540688/
https://www.mdpi.com/2079-9292/13/12/2317
https://academic.oup.com/joc/article/73/2/138/6958533
https://www.pnas.org/doi/10.1073/pnas.2318127122
https://www.sciencedirect.com/science/article/pii/S0016328724000661

Posts Similares

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *