Agradecimentos especiais aos voluntários da Balvi, Paul Dylan-Ennis, pcaversaccio, vectorized, Bruce Xu e Luozhu Zhang pela discussão e feedback.
Recentemente, tenho me concentrado cada vez mais emmelhorando o estado da privacidadeno ecossistema Ethereum. A privacidade é uma garantia importante da descentralização: quem tem a informação tem o poder, logo, precisamos evitar o controle centralizado sobre as informações. Quando pessoas no mundo real expressam preocupação sobre a infraestrutura técnica operada centralmente, a preocupação às vezes é sobre os operadores mudando as regras inesperadamente ou desplataformando usuários, mas com a mesma frequência, é sobre a coleta de dados. Enquanto o espaço de criptomoedas tem suas origens em projetos como Chaumian Ecash, que colocou a preservação da privacidade financeira digital em primeiro plano, mais recentemente desvalorizou a privacidade por um motivo ruim: antes do ZK-SNARKs, não tínhamos como oferecer privacidade de forma descentralizada, e por isso a negligenciamos, focando exclusivamente em outras garantias que poderíamos fornecer na época.
Hoje, no entanto, a privacidade não pode mais ser ignorada. A inteligência artificial está aumentando consideravelmente as capacidades de coleta e análise de dados centralizados, ao mesmo tempo que expande enormemente o escopo de dados que compartilhamos voluntariamente. No futuro, novas tecnologias como interfaces cérebro-computador trazem desafios adicionais: podemos estar literalmente falando sobre a inteligência artificial lendo nossas mentes. Ao mesmo tempo, temos ferramentas mais poderosas para preservar a privacidade, especialmente no mundo digital, do que os ciberpunks dos anos 1990 poderiam ter imaginado: provas de conhecimento zero altamente eficientes (ZK-SNARKs) podem proteger nossas identidades enquanto revelam informações suficientes para provar que somos confiáveis, a criptografia completamente homomórfica (FHE) pode nos permitir computar sobre dados sem ver os dados, e a obfuscação pode em breve oferecer ainda mais.
Privacidade não se trata de ficar de fora. Trata-se de ficar juntos.
Neste momento, vale a pena dar um passo atrás e analisar a questão: por que queremos privacidade em primeiro lugar? A resposta de cada pessoa será diferente. Neste post, darei a minha própria resposta, que dividirei em três partes:
Lá pelos anos 2000, era popular ter pontos de vista semelhantes aos epitomizados pelo livro de 1998 de David BrinA Sociedade Transparente: a tecnologia tornaria as informações em todo o mundo muito mais transparentes, e embora isso tenha desvantagens e exija adaptação, em média é algo muito bom, e podemos torná-lo justo garantindo que as pessoas possam vigiar (ou melhor,sousveil) o governo também. Em 1999, o CEO da Sun Microsystems, Scott McNealy famosamente exclamou: “a privacidade está morta, supere isso!”. Essa mentalidade era comum no início da concepção e desenvolvimento do Facebook, que identidades pseudônimas banidas. Eu pessoalmente lembro de vivenciar o fim dessa mentalidade em uma apresentação em um evento da Huawei em Shenzhen em 2015, onde um palestrante (ocidental) mencionou casualmente em um comentário que "a privacidade acabou".
A Sociedade Transparente representava o melhor e mais brilhante do que a ideologia 'a privacidade acabou' tinha a oferecer: prometia um mundo melhor, mais justo e justo, usando o poder da transparência para manter os governos responsáveis em vez de reprimir indivíduos e minorias. No entanto, em retrospecto, está claro que até mesmo essa abordagem era um produto de seu tempo, escrito no auge do entusiasmo sobre a cooperação global e a paz e 'o fim da história', e dependia de um número de suposições excessivamente otimistas sobre a natureza humana. Principalmente:
Hoje, não há um único país importante para o qual se concorde amplamente que a primeira suposição é verdadeira e muitos para os quais é amplamente acordado que é falsa. No segundo aspecto, a tolerância cultural também tem regredido rapidamente - uma simples busca no twitter por frases como "apoiar"bullying é bom"é uma peça de evidência disso, embora seja fácil encontrar mais.
Pessoalmente, tenho a infelicidade de encontrar regularmente as desvantagens da “sociedade transparente”, já que cada ação que realizo fora de casa tem alguma chance não nula de se tornar inesperadamente uma notícia na mídia pública:
O pior infrator foi alguém que gravou um vídeo de um minuto enquanto eu estava trabalhando em Chiang Mai e decidiu postá-lo no xiaohongshu, onde imediatamente recebeu milhares de curtidas e compartilhamentos. Claro, minha situação é muito diferente da norma humana - mas sempre foi assim com a privacidade: a privacidade é menos necessária para pessoas cujas situações de vida são relativamente normais e mais necessária para pessoas cujas situações de vida se desviam da norma, em qualquer direção. E uma vez que você considera todas as diferentes direções que importam, o número de pessoas que realmente precisam de privacidade acaba sendo bastante grande - e você nunca sabe quando se tornará uma delas. Esta é uma grande razão pela qual a privacidade é frequentemente subestimada: não se trata apenas de sua situação e suas informações hoje, mas também sobre as incógnitas desconhecidas sobre o que acontece com essas informações (e como isso afeta você) indo adiante para sempre no futuro.
A privacidade em relação aos mecanismos de precificação corporativa é uma preocupação de nicho hoje, mesmo entre os defensores da IA, mas com o aumento das ferramentas de análise baseadas em IA, é provável que se torne uma questão crescente: quanto mais uma empresa sabe sobre você, maior a probabilidade de oferecer a você um preço personalizado que maximize o quanto pode extrair de você, multiplicado pela probabilidade de que você pague.
Eu posso expressar meu argumento geral para a privacidade como liberdade em uma frase da seguinte forma:
A privacidade oferece a liberdade de viver a vida da maneira que melhor se adapta aos seus objetivos e necessidades pessoais, sem ter que equilibrar constantemente cada ação entre o “jogo privado” (suas próprias necessidades) e o “jogo público” (como todos os tipos de outras pessoas, intermediadas por todos os tipos de mecanismos, incluindo cascades de mídia social, incentivos comerciais, política, instituições, etc., perceberão e responderão ao seu comportamento)
Sem privacidade, tudo se torna uma batalha constante de 'o que outras pessoas (e bots) pensarão do que estou fazendo' - pessoas poderosas, empresas e colegas, pessoas de hoje e do futuro. Com privacidade, podemos preservar um equilíbrio. Hoje, esse equilíbrio está sendo rapidamente erodido, especialmente no domínio físico, e o caminho padrão do tecno-capitalismo moderno, com sua fome por modelos de negócios que encontram maneiras de capturar valor dos usuários sem pedir explicitamente que paguem por coisas, é erodi-lo ainda mais (até mesmo em domínios altamente sensíveis como, eventualmente, nossas próprias mentes). Portanto, precisamos contrariar esse efeito e apoiar a privacidade de forma mais explícita, particularmente no lugar onde podemos fazer isso de forma mais prática: o domínio digital.
Existe uma resposta comum para o raciocínio acima: as desvantagens da privacidade que descrevi são em grande parte desvantagens do público saber demais sobre nossas vidas privadas, e mesmo quando se trata de abuso de poder, trata-se de corporações, chefes e políticos saberem demais. Mas não vamos permitir que o público, corporações, chefes e políticos tenham todos esses dados. Em vez disso, permitiremos que um pequeno grupo de profissionais altamente treinados e bem avaliados da aplicação da lei veja dados retirados das câmeras de segurança nas ruas e das escutas nos cabos de internet e aplicativos de chat, imponham procedimentos rígidos de responsabilização, e mais ninguém ficará sabendo.
Esta é uma posição silenciosa, mas amplamente mantida, e, portanto, é importante abordá-la explicitamente. Existem várias razões pelas quais, mesmo se implementadas em alto padrão de qualidade com boas intenções, tais estratégias são inerentemente instáveis:
Do ponto de vista de um indivíduo, se os dados são retirados deles, eles não têm como saber se e como serão abusados no futuro. De longe, a abordagem mais segura para lidar com dados em grande escala é coletar centralmente o mínimo possível desde o início. Os dados devem ser maximamente mantidos pelos próprios usuários, e meios criptográficos utilizados para permitir a agregação de estatísticas úteis sem comprometer a privacidade individual.
O argumento de que o governo deve ter a capacidade de acessar qualquer coisa com um mandado porque é assim que as coisas sempre funcionaram perde um ponto chave: historicamente, a quantidade de informações disponíveis para serem obtidas com mandados era muito menor do que está disponível hoje, e até mesmo do que estaria disponível se as formas mais fortes propostas de privacidade na Internet fossem universalmente adotadas. No século XIX, a conversa média acontecia uma vez, via voz, e nunca era registrada por ninguém. Por esse motivo: o inteiropânico moral em torno do “ficar no escuro”é ahistorical: a conversa média, e até mesmo transação financeira, sendo totalmente e incondicionalmente privada é a norma histórica de vários milhares de anos.
Uma conversa média, 1950. Exatamente zero palavras da conversa foram gravadas, espionadas, sujeitas a "interceptação legal", analisadas por IA ou vistas por qualquer pessoa a qualquer momento que não os participantes da conversa enquanto ela está acontecendo.
Outra razão importante para minimizar a coleta centralizada de dados é a natureza inerentemente internacional de grandes partes da comunicação global e interação econômica. Se todos estiverem no mesmo país, é pelo menos uma posição coerente dizer que "o governo" deve ter acesso aos dados em suas interações. Mas e se as pessoas estiverem em países diferentes? Certamente, em princípio, você poderia tentar criar um esquema de gênio onde os dados de cada pessoa são mapeados para alguma entidade de acesso legal que seja responsável por eles - embora mesmo aí você teria que lidar com um grande número de casos limítrofes envolvendo dados que se relacionam com várias pessoas. Mas mesmo que você pudesse, não é o resultado padrão realista. O resultado padrão realista das portas dos fundos do governo é: os dados se concentram em um pequeno número de jurisdições centrais que têm os dados de todos porque controlam as aplicações - essencialmente, uma tecnologia global-hegemônica. A privacidade forte é de longe a alternativa mais estável.
Por mais de um século, reconhece-se que um componente técnico-chave que faz a democracia funcionar é o voto secreto: ninguém sabe em quem você votou e, além disso, você não tem a capacidade de provar a ninguém em quem votou, mesmo que realmente queira. Se os votos não fossem secretos por padrão, os eleitores seriam abordados com todos os tipos de incentivos secundários que afetam como eles votam: subornos, promessas de recompensas retroativas, pressão social, ameaças e muito mais.
Pode-se ver que tais incentivos laterais quebrariam completamente a democracia com um simples argumento matemático: em uma eleição com N pessoas, sua probabilidade de afetar o resultado é apenas aproximadamente 1/N, e assim quaisquer considerações relacionadas a qual candidato é melhor e qual é pior são divididas inherentemente por N. Enquanto isso, os 'jogos laterais' (por exemplo, suborno de eleitores, coerção, pressão social) atuam diretamente em você com base em como você vota (em vez de com base no resultado do voto como um todo), e portanto, eles não são divididos por N. Portanto, a menos que os jogos laterais sejam controlados de forma rígida, eles, por padrão, dominam todo o jogo e sufocam qualquer consideração sobre quais políticas do candidato são realmente melhores.
Isso se aplica não apenas à democracia em escala nacional. Teoricamente, se aplica a quase qualquer problema principal-agente corporativo ou governamental:
O problema fundamental em todos os casos é o mesmo: se o agente age honestamente, eles absorvem apenas uma pequena parte do benefício de sua ação para a entidade que estão representando, enquanto se seguirem os incentivos de algum jogo paralelo, então absorvem a parte total desses benefícios. Portanto, mesmo hoje, estamos contando com muita boa vontade moral para garantir que todas as nossas instituições não sejam completamente dominadas por um turbilhão caótico de jogos paralelos que derrubam jogos paralelos. Se a privacidade diminuir ainda mais, esses jogos paralelos se tornarão ainda mais fortes, e a boa vontade moral necessária para manter a sociedade funcionando pode se tornar irrealisticamente alta.
Será que os sistemas sociais poderiam ser redesenhados para não ter esse problema? Infelizmente, a teoria dos jogos praticamente explicitamente diz que isso é impossível (com uma exceção: ditadura total). Na versão da teoria dos jogos que se concentra na escolha individual - ou seja, na versão que assume que cada participante toma decisões de forma independente e que não permite a possibilidade de grupos de agentes trabalhando como um para o benefício mútuo, os projetistas de mecanismos têm uma ampla latitude para jogos de "engenheiro"para alcançar todos os tipos de resultados específicos. Na verdade, existemprovas matemáticasque para qualquer jogo, pelo menos um equilíbrio de Nash estável deve existir, e assim analisar tais jogos se torna viável. Mas na versão da teoria dos jogos que permite a possibilidade de coalizões trabalharem juntas (ou seja, "coludir"), chamada teoria dos jogos cooperativos,podemos provar issoexistem grandes classes de jogos que não têm nenhum resultado estável (chamado de núcleo)”). Em tais jogos, seja qual for o estado atual das coisas, sempre há alguma coalizão que pode desviar dele lucrativamente.
Se levamos a matemática a sério, nóschegar à conclusãoque a única maneira de criar estruturas sociais estáveis é ter alguns limites sobre a quantidade de coordenação entre os participantes que podem acontecer - e isso implica em forte privacidade (incluindo a possibilidade de negação). Se você não levar a matemática a sério por si só, então basta observar o mundo real, ou pelo menos pensar no que algumas das situações principal-agente descritas acima poderiam se tornar se fossem dominadas por jogos paralelos, para chegar à mesma conclusão.
Note que isso introduz outro argumento para o porquê de as portas dos fundos do governo serem arriscadas. Se todos tiverem a capacidade ilimitada de coordenar com todos sobre tudo, o resultado é o caos. Mas se apenas algumas pessoas puderem fazê-lo, porque têm acesso privilegiado à informação, então o resultado é que elas dominam. Um partido político tendo acesso aos bastidores às comunicações do outro pode facilmente significar o fim da viabilidade de ter múltiplos partidos políticos.
Outro exemplo importante de uma ordem social que depende de limites para a colusão a fim de funcionar é a atividade intelectual e cultural. A participação na atividade intelectual e cultural é intrinsecamente uma tarefa de interesse público motivada intrinsecamente: é muito difícil criar incentivos extrínsecos que visem contribuições positivas para a sociedade, precisamente porque a atividade intelectual e cultural é, em parte, a atividade de determinar quais ações na sociedade são ações positivas em primeiro lugar. Podemos criar incentivos comerciais e sociais aproximados que apontam na direção certa, mas eles também requerem um forte complemento de motivação intrínseca. Mas isso também significa que esse tipo de atividade é altamente frágil a motivações extrínsecas desalinhadas, particularmente jogos paralelos como pressão social e coerção. Para limitar o impacto de tais motivações extrínsecas desalinhadas, a privacidade é mais uma vez necessária.
Imagine um mundo onde a criptografia de chave pública e de chave simétrica simplesmente não existisse. Nesse mundo, enviar mensagens de forma segura através de longas distâncias seria inherentemente muito mais difícil - não impossívelmas difícil. Isso levaria a muito menos cooperação internacional ocorrendo e, como resultado, muito mais continuaria a acontecer por meio de canais offline presenciais. Isso teria tornado o mundo um lugar muito mais pobre e desigual.
Vou argumentar que hoje estamos exatamente nesse lugar hoje, em relação a um mundo hipotético de amanhã onde formas muito mais fortes de criptografia estavam amplamente disponíveis - em particular, criptografia programável, complementada por formas mais fortes de segurança de pilha completa e verificação formal para nos dar garantias sólidas de que essa criptografia está sendo usada corretamente.
O Protocolos do deus egípcio: três construções poderosas e altamente versáteis que nos permitem realizar cálculos em dados ao mesmo tempo em que mantêm os dados completamente privados.
Uma excelente fonte de exemplos é a saúde. Se você conversar com alguém que esteve trabalhando em longevidade, resistência a pandemias ou outros campos da saúde na última década, eles dirão universalmente que o futuro do tratamento e prevenção é personalizado, e a resposta eficaz depende muito de dados de alta qualidade, tanto dados sobre indivíduos quanto dados sobre o ambiente. Proteger efetivamente as pessoas contra doenças transmitidas pelo ar requer saber onde a qualidade do ar é mais alta e mais baixa, e em quais regiões os patógenos estão surgindo em determinado momento. As clínicas de longevidade mais avançadas dão recomendações e tratamentos personalizados com base em dados sobre seu corpo, preferências alimentares e estilo de vida.
No entanto, cada uma dessas coisas são simultaneamente enormes riscos de privacidade. Estou pessoalmente ciente de um incidente em que um monitor de ar foi dado a um funcionário que 'ligou para casa' para uma empresa, e os dados coletados foram suficientes para determinar quando esse funcionário estava tendo relações sexuais. Por razões como esta, espero que por padrão muitas das formas mais valiosas de dados não serão coletadas, precisamente porque as pessoas têm medo das consequências para a privacidade. E mesmo quando os dados são coletados, quase sempre não serão amplamente compartilhados ou disponibilizados para os pesquisadores - em parte por razões comerciais, mas com a mesma frequência por causa das preocupações com a privacidade envolvidas.
O mesmo padrão se repete em outras esferas. Há uma enorme quantidade de informações sobre nós mesmos em nossas ações, nos documentos que escrevemos, nas mensagens que enviamos em várias aplicações e nas várias ações nas redes sociais, que poderiam ser usadas de forma mais eficaz para prever e fornecer as coisas que precisamos em nossas vidas diárias. Há uma enorme quantidade de informações sobre como interagimos com nossos ambientes físicos que não estão relacionadas à saúde. Hoje, faltam ferramentas para usar efetivamente essas informações sem criar pesadelos de privacidade distópicos. Amanhã, podemos ter essas ferramentas.
A melhor maneira de resolver esses desafios é usar criptografia forte, que pode nos permitir obter os benefícios de compartilhar dados sem as desvantagens. A necessidade de acessar dados, incluindo dados pessoais, só se tornará mais importante na era da IA, pois há valor em poder treinar e executar localmente “gêmeos digitais” que podem tomar decisões em nosso nome com base em aproximações de alta fidelidade de nossas preferências. Eventualmente, isso também envolverá o uso da tecnologia de interface cérebro-computador (BCI), lendo entradas de alta largura de banda de nossas mentes. Para que isso não leve a uma hegemonia global altamente centralizada, precisamos de maneiras para que isso seja feito com respeito à privacidade forte. A criptografia programável é a solução mais confiável.
Meu AirValentmonitor de qualidade do ar. Imagine um dispositivo como este que coleta dados de qualidade do ar, disponibiliza estatísticas agregadas publicamente em um mapa de dados abertos e recompensa você por fornecer os dados - tudo isso usando criptografia programável para evitar revelar seus dados de localização pessoal e verificar que os dados são genuínos.
Técnicas de criptografia programáveis como provas de conhecimento zero são poderosas, porque são como tijolos de Lego para o fluxo de informações. Eles podem permitir controle detalhado de quem pode ver quais informações e, frequentemente, o que é mais importante, que informações podem ser vistas. Por exemplo, posso provar que tenho um passaporte canadense que mostra que tenho mais de 18 anos, sem revelar mais nada sobre mim.
Isso torna possível todos os tipos de combinações fascinantes. Posso dar alguns exemplos:
representação de pools de privacidade
os taiwanesesVerificador de Mensagensaplicativo, que dá ao usuário a opção de ligar ou desligar vários filtros, aqui de cima para baixo: verificação de URL, verificação de endereço de criptomoeda, verificação de boatos
Recentemente, ChatGPT anunciouque começará a alimentar suas conversas passadas no AI como contexto para suas conversas futuras. Que a tendência continuará nessa direção é inevitável: um AI olhando suas conversas passadas e obtendo insights delas é fundamentalmente útil. No futuro próximo, provavelmente veremos pessoas criando produtos de AI que fazem intrusões ainda mais profundas na privacidade: coletando passivamente seus padrões de navegação na internet, histórico de e-mails e conversas, dados biométricos e muito mais.
Na teoria, seus dados permanecem privados para você. Na prática, nem sempre parece ser o caso:
“Wow! ChatGPT tem um bugE empurra perguntas feitas por outros para mim! Isso é uma grande falha de privacidade. Fiz uma pergunta, recebi um erro e depois 'Tentar novamente' gerou uma pergunta que eu nunca faria.
É sempre possível que a proteção da privacidade tenha funcionado bem e, neste caso, a IA alucinou ao gerar uma pergunta que Bruce nunca fez e respondendo a ela. Mas não há maneira de verificar. Da mesma forma, não há como verificar se nossas conversas estão sendo usadas ou não para treinamento.
Isso é tudo muito preocupante. Ainda mais perturbadores são os casos de uso explícitos de vigilância de IA, onde dados (físicos e digitais) sobre pessoas estão sendo coletados e analisados em grande escala sem o seu consentimento. O reconhecimento facial já está ajudando regimes autoritários reprimir a dissidência políticaem uma escala massiva. E o mais preocupante de todos é a inevitável fronteira final da coleta e análise de dados de IA: a mente humana.
Em princípio, a tecnologia de interface cérebro-computador tem um poder incrível para impulsionar o potencial humano. Pegue a história de Noland Arbaugh, Primeiro paciente da Neuralink até o ano passado:
O dispositivo experimental deu a Arbaugh, agora com 30 anos, um senso de independência. Antes, usar um mouth-stick exigia que alguém o posicionasse em pé. Se ele deixasse cair o mouth-stick, precisava ser pego para ele. E ele não podia usá-lo por muito tempo ou desenvolveria feridas. Com o dispositivo Neuralink, ele tem quase controle total de um computador. Ele pode navegar na web e jogar jogos de computador sempre que quiser, e a Neuralink diz que ele tem estabelecer o recorde humano de controle de cursor com um BCI.
Hoje, esses dispositivos são poderosos o suficiente para apoiar os feridos e doentes. Amanhã, eles serão poderosos o suficiente para dar às pessoas totalmente saudáveis uma oportunidade de trabalhar com computadores e se comunicar telepaticamente umas com as outras (!!), em um nível de eficiência que para nós parece inimaginável. Mas interpretar realmente os sinais cerebrais para tornar esse tipo de comunicação possível requer IA.
Existe um futuro sombrio que poderia surgir naturalmente como uma confluência dessas tendências, e obtemos superagentes de silício que estão absorvendo e analisando informações sobre todos, incluindo como eles escrevem, agem e pensam. Mas também existe um futuro mais brilhante, onde obtemos os benefícios dessas tecnologias enquanto preservamos nossa privacidade.
Isso pode ser feito com uma combinação de algumas técnicas:
Em 2008, o filósofo libertário David Friedman escreveuum livro chamado Futuro Imperfeito, em que ele apresentou uma série de esboços sobre as mudanças na sociedade que novas tecnologias podem trazer, nem todas a seu favor (ou ao nosso favor).uma seção, ele descreve um futuro potencial onde vemos uma interação complicada entre privacidade e vigilância, onde o crescimento da privacidade digital contrabalança o crescimento da vigilância no mundo físico:
Não adianta usar uma criptografia forte para o meu e-mail se um mosquito de vídeo estiver sentado na parede me observando digitar. Portanto, a privacidade forte em uma sociedade transparente requer alguma forma de guardar a interface entre meu corpo no mundo real e o ciberespaço ... Uma solução de baixa tecnologia é digitar sob um capuz. Uma solução de alta tecnologia é algum tipo de ligação entre a mente e a máquina que não passe pelos dedos - ou por qualquer outra coisa visível a um observador externo.24
O conflito entre transparência no espaço real e privacidade no ciberespaço também segue na direção oposta... Meu computador de bolso criptografa minha mensagem com sua chave pública e a transmite para o seu computador de bolso, que descriptografa a mensagem e a exibe por meio dos seus óculos de realidade virtual. Para garantir que nada esteja lendo os óculos por cima do seu ombro, os óculos transmitem a imagem para você não exibindo-a em uma tela, mas sim usando um pequeno laser para escrevê-la na sua retina. Com sorte, o interior do seu globo ocular ainda é um espaço privado.
Poderíamos acabar em um mundo onde ações físicas são inteiramente públicas, transações de informações inteiramente privadas. Tem algumas características atrativas. Cidadãos privados ainda serão capazes de aproveitar a forte privacidade para localizar um assassino, mas contratá-lo pode custar mais do que estão dispostos a pagar, uma vez que em um mundo suficientemente transparente todos os assassinatos são detectados. Cada assassino executa uma comissão e vai diretamente para a cadeia.
E quanto à interação entre essas tecnologias e o processamento de dados? Por um lado, é o processamento moderno de dados que torna a sociedade transparente uma ameaça - sem isso, não importaria muito se você gravasse em vídeo tudo o que aconteceu no mundo, pois ninguém nunca poderia encontrar os seis centímetros de fita de vídeo específicos que ele queria nos milhões de quilômetros produzidos a cada dia. Por outro lado, as tecnologias que apoiar a forte privacidade proporcionam a possibilidade de restabelecer a privacidade, mesmo em um mundo com processamento moderno de dados, mantendo as informações sobre suas transações longe de qualquer pessoa que não seja você.
Um mundo assim pode muito bem ser o melhor de todos os mundos possíveis: se tudo correr bem, veríamos um futuro onde há muito pouca violência física, mas ao mesmo tempo preservamos nossas liberdades online e garantimos o funcionamento básico dos processos políticos, cívicos, culturais e intelectuais na sociedade, que dependem de alguns limites para a transparência total das informações para sua operação contínua.
Mesmo que não seja ideal, é muito melhor do que a versão em que a privacidade física e digital chega a zero, acabando eventualmente incluindo a privacidade de nossas próprias mentes, e em meados de 2050 começamos a ver artigos argumentando que, é claro, é irrealista esperar ter pensamentos que não estejam sujeitos a interceptação legal, e respostas a esses artigos consistindo em links para o incidente mais recente em que um LLM de uma empresa de IA foi explorado, o que resultou em um ano em que os monólogos internos privados de 30 milhões de pessoas vazaram para toda a internet.
A sociedade sempre dependeu de um equilíbrio entre privacidade e transparência. Em alguns casos, eu também apoio limites à privacidade. Para dar um exemplo totalmente desconectado dos argumentos usuais que as pessoas dão a esse respeito, eu apoio as ações do governo dos EUA para proibir cláusulas de não concorrência em contratos, principalmente não por causa de seus impactos diretos sobre os trabalhadores, mas porque são uma maneira de forçar o conhecimento tácito do domínio das empresas a ser parcialmente de código aberto. Forçar as empresas a serem mais abertas do que gostariam é uma limitação da privacidade - mas eu argumentaria que é benéfico líquido. Mas, do ponto de vista macro, o risco mais premente da tecnologia em um futuro próximo é que a privacidade atingirá níveis próximos do mínimo histórico, e de uma maneira altamente desequilibrada, em que os indivíduos mais poderosos e as nações mais poderosas obtêm muitos dados sobre todos, e todos os outros verão quase nada. Por esse motivo, apoiar a privacidade de todos e tornar as ferramentas necessárias de código aberto, universais, confiáveis e seguras é um dos desafios importantes de nosso tempo.
Este artigo é reproduzido de [ Vitalik]. Todos os direitos autorais pertencem ao autor original [Vitalik]. Se houver objeções a esta reimpressão, entre em contato com o Gate Learnequipe e eles vão lidar com isso prontamente.
Isenção de responsabilidade: As opiniões expressas neste artigo são exclusivamente do autor e não constituem qualquer conselho de investimento.
As traduções do artigo para outros idiomas são feitas pela equipe Gate Learn. A menos que seja mencionado, copiar, distribuir ou plagiar os artigos traduzidos é proibido.
Agradecimentos especiais aos voluntários da Balvi, Paul Dylan-Ennis, pcaversaccio, vectorized, Bruce Xu e Luozhu Zhang pela discussão e feedback.
Recentemente, tenho me concentrado cada vez mais emmelhorando o estado da privacidadeno ecossistema Ethereum. A privacidade é uma garantia importante da descentralização: quem tem a informação tem o poder, logo, precisamos evitar o controle centralizado sobre as informações. Quando pessoas no mundo real expressam preocupação sobre a infraestrutura técnica operada centralmente, a preocupação às vezes é sobre os operadores mudando as regras inesperadamente ou desplataformando usuários, mas com a mesma frequência, é sobre a coleta de dados. Enquanto o espaço de criptomoedas tem suas origens em projetos como Chaumian Ecash, que colocou a preservação da privacidade financeira digital em primeiro plano, mais recentemente desvalorizou a privacidade por um motivo ruim: antes do ZK-SNARKs, não tínhamos como oferecer privacidade de forma descentralizada, e por isso a negligenciamos, focando exclusivamente em outras garantias que poderíamos fornecer na época.
Hoje, no entanto, a privacidade não pode mais ser ignorada. A inteligência artificial está aumentando consideravelmente as capacidades de coleta e análise de dados centralizados, ao mesmo tempo que expande enormemente o escopo de dados que compartilhamos voluntariamente. No futuro, novas tecnologias como interfaces cérebro-computador trazem desafios adicionais: podemos estar literalmente falando sobre a inteligência artificial lendo nossas mentes. Ao mesmo tempo, temos ferramentas mais poderosas para preservar a privacidade, especialmente no mundo digital, do que os ciberpunks dos anos 1990 poderiam ter imaginado: provas de conhecimento zero altamente eficientes (ZK-SNARKs) podem proteger nossas identidades enquanto revelam informações suficientes para provar que somos confiáveis, a criptografia completamente homomórfica (FHE) pode nos permitir computar sobre dados sem ver os dados, e a obfuscação pode em breve oferecer ainda mais.
Privacidade não se trata de ficar de fora. Trata-se de ficar juntos.
Neste momento, vale a pena dar um passo atrás e analisar a questão: por que queremos privacidade em primeiro lugar? A resposta de cada pessoa será diferente. Neste post, darei a minha própria resposta, que dividirei em três partes:
Lá pelos anos 2000, era popular ter pontos de vista semelhantes aos epitomizados pelo livro de 1998 de David BrinA Sociedade Transparente: a tecnologia tornaria as informações em todo o mundo muito mais transparentes, e embora isso tenha desvantagens e exija adaptação, em média é algo muito bom, e podemos torná-lo justo garantindo que as pessoas possam vigiar (ou melhor,sousveil) o governo também. Em 1999, o CEO da Sun Microsystems, Scott McNealy famosamente exclamou: “a privacidade está morta, supere isso!”. Essa mentalidade era comum no início da concepção e desenvolvimento do Facebook, que identidades pseudônimas banidas. Eu pessoalmente lembro de vivenciar o fim dessa mentalidade em uma apresentação em um evento da Huawei em Shenzhen em 2015, onde um palestrante (ocidental) mencionou casualmente em um comentário que "a privacidade acabou".
A Sociedade Transparente representava o melhor e mais brilhante do que a ideologia 'a privacidade acabou' tinha a oferecer: prometia um mundo melhor, mais justo e justo, usando o poder da transparência para manter os governos responsáveis em vez de reprimir indivíduos e minorias. No entanto, em retrospecto, está claro que até mesmo essa abordagem era um produto de seu tempo, escrito no auge do entusiasmo sobre a cooperação global e a paz e 'o fim da história', e dependia de um número de suposições excessivamente otimistas sobre a natureza humana. Principalmente:
Hoje, não há um único país importante para o qual se concorde amplamente que a primeira suposição é verdadeira e muitos para os quais é amplamente acordado que é falsa. No segundo aspecto, a tolerância cultural também tem regredido rapidamente - uma simples busca no twitter por frases como "apoiar"bullying é bom"é uma peça de evidência disso, embora seja fácil encontrar mais.
Pessoalmente, tenho a infelicidade de encontrar regularmente as desvantagens da “sociedade transparente”, já que cada ação que realizo fora de casa tem alguma chance não nula de se tornar inesperadamente uma notícia na mídia pública:
O pior infrator foi alguém que gravou um vídeo de um minuto enquanto eu estava trabalhando em Chiang Mai e decidiu postá-lo no xiaohongshu, onde imediatamente recebeu milhares de curtidas e compartilhamentos. Claro, minha situação é muito diferente da norma humana - mas sempre foi assim com a privacidade: a privacidade é menos necessária para pessoas cujas situações de vida são relativamente normais e mais necessária para pessoas cujas situações de vida se desviam da norma, em qualquer direção. E uma vez que você considera todas as diferentes direções que importam, o número de pessoas que realmente precisam de privacidade acaba sendo bastante grande - e você nunca sabe quando se tornará uma delas. Esta é uma grande razão pela qual a privacidade é frequentemente subestimada: não se trata apenas de sua situação e suas informações hoje, mas também sobre as incógnitas desconhecidas sobre o que acontece com essas informações (e como isso afeta você) indo adiante para sempre no futuro.
A privacidade em relação aos mecanismos de precificação corporativa é uma preocupação de nicho hoje, mesmo entre os defensores da IA, mas com o aumento das ferramentas de análise baseadas em IA, é provável que se torne uma questão crescente: quanto mais uma empresa sabe sobre você, maior a probabilidade de oferecer a você um preço personalizado que maximize o quanto pode extrair de você, multiplicado pela probabilidade de que você pague.
Eu posso expressar meu argumento geral para a privacidade como liberdade em uma frase da seguinte forma:
A privacidade oferece a liberdade de viver a vida da maneira que melhor se adapta aos seus objetivos e necessidades pessoais, sem ter que equilibrar constantemente cada ação entre o “jogo privado” (suas próprias necessidades) e o “jogo público” (como todos os tipos de outras pessoas, intermediadas por todos os tipos de mecanismos, incluindo cascades de mídia social, incentivos comerciais, política, instituições, etc., perceberão e responderão ao seu comportamento)
Sem privacidade, tudo se torna uma batalha constante de 'o que outras pessoas (e bots) pensarão do que estou fazendo' - pessoas poderosas, empresas e colegas, pessoas de hoje e do futuro. Com privacidade, podemos preservar um equilíbrio. Hoje, esse equilíbrio está sendo rapidamente erodido, especialmente no domínio físico, e o caminho padrão do tecno-capitalismo moderno, com sua fome por modelos de negócios que encontram maneiras de capturar valor dos usuários sem pedir explicitamente que paguem por coisas, é erodi-lo ainda mais (até mesmo em domínios altamente sensíveis como, eventualmente, nossas próprias mentes). Portanto, precisamos contrariar esse efeito e apoiar a privacidade de forma mais explícita, particularmente no lugar onde podemos fazer isso de forma mais prática: o domínio digital.
Existe uma resposta comum para o raciocínio acima: as desvantagens da privacidade que descrevi são em grande parte desvantagens do público saber demais sobre nossas vidas privadas, e mesmo quando se trata de abuso de poder, trata-se de corporações, chefes e políticos saberem demais. Mas não vamos permitir que o público, corporações, chefes e políticos tenham todos esses dados. Em vez disso, permitiremos que um pequeno grupo de profissionais altamente treinados e bem avaliados da aplicação da lei veja dados retirados das câmeras de segurança nas ruas e das escutas nos cabos de internet e aplicativos de chat, imponham procedimentos rígidos de responsabilização, e mais ninguém ficará sabendo.
Esta é uma posição silenciosa, mas amplamente mantida, e, portanto, é importante abordá-la explicitamente. Existem várias razões pelas quais, mesmo se implementadas em alto padrão de qualidade com boas intenções, tais estratégias são inerentemente instáveis:
Do ponto de vista de um indivíduo, se os dados são retirados deles, eles não têm como saber se e como serão abusados no futuro. De longe, a abordagem mais segura para lidar com dados em grande escala é coletar centralmente o mínimo possível desde o início. Os dados devem ser maximamente mantidos pelos próprios usuários, e meios criptográficos utilizados para permitir a agregação de estatísticas úteis sem comprometer a privacidade individual.
O argumento de que o governo deve ter a capacidade de acessar qualquer coisa com um mandado porque é assim que as coisas sempre funcionaram perde um ponto chave: historicamente, a quantidade de informações disponíveis para serem obtidas com mandados era muito menor do que está disponível hoje, e até mesmo do que estaria disponível se as formas mais fortes propostas de privacidade na Internet fossem universalmente adotadas. No século XIX, a conversa média acontecia uma vez, via voz, e nunca era registrada por ninguém. Por esse motivo: o inteiropânico moral em torno do “ficar no escuro”é ahistorical: a conversa média, e até mesmo transação financeira, sendo totalmente e incondicionalmente privada é a norma histórica de vários milhares de anos.
Uma conversa média, 1950. Exatamente zero palavras da conversa foram gravadas, espionadas, sujeitas a "interceptação legal", analisadas por IA ou vistas por qualquer pessoa a qualquer momento que não os participantes da conversa enquanto ela está acontecendo.
Outra razão importante para minimizar a coleta centralizada de dados é a natureza inerentemente internacional de grandes partes da comunicação global e interação econômica. Se todos estiverem no mesmo país, é pelo menos uma posição coerente dizer que "o governo" deve ter acesso aos dados em suas interações. Mas e se as pessoas estiverem em países diferentes? Certamente, em princípio, você poderia tentar criar um esquema de gênio onde os dados de cada pessoa são mapeados para alguma entidade de acesso legal que seja responsável por eles - embora mesmo aí você teria que lidar com um grande número de casos limítrofes envolvendo dados que se relacionam com várias pessoas. Mas mesmo que você pudesse, não é o resultado padrão realista. O resultado padrão realista das portas dos fundos do governo é: os dados se concentram em um pequeno número de jurisdições centrais que têm os dados de todos porque controlam as aplicações - essencialmente, uma tecnologia global-hegemônica. A privacidade forte é de longe a alternativa mais estável.
Por mais de um século, reconhece-se que um componente técnico-chave que faz a democracia funcionar é o voto secreto: ninguém sabe em quem você votou e, além disso, você não tem a capacidade de provar a ninguém em quem votou, mesmo que realmente queira. Se os votos não fossem secretos por padrão, os eleitores seriam abordados com todos os tipos de incentivos secundários que afetam como eles votam: subornos, promessas de recompensas retroativas, pressão social, ameaças e muito mais.
Pode-se ver que tais incentivos laterais quebrariam completamente a democracia com um simples argumento matemático: em uma eleição com N pessoas, sua probabilidade de afetar o resultado é apenas aproximadamente 1/N, e assim quaisquer considerações relacionadas a qual candidato é melhor e qual é pior são divididas inherentemente por N. Enquanto isso, os 'jogos laterais' (por exemplo, suborno de eleitores, coerção, pressão social) atuam diretamente em você com base em como você vota (em vez de com base no resultado do voto como um todo), e portanto, eles não são divididos por N. Portanto, a menos que os jogos laterais sejam controlados de forma rígida, eles, por padrão, dominam todo o jogo e sufocam qualquer consideração sobre quais políticas do candidato são realmente melhores.
Isso se aplica não apenas à democracia em escala nacional. Teoricamente, se aplica a quase qualquer problema principal-agente corporativo ou governamental:
O problema fundamental em todos os casos é o mesmo: se o agente age honestamente, eles absorvem apenas uma pequena parte do benefício de sua ação para a entidade que estão representando, enquanto se seguirem os incentivos de algum jogo paralelo, então absorvem a parte total desses benefícios. Portanto, mesmo hoje, estamos contando com muita boa vontade moral para garantir que todas as nossas instituições não sejam completamente dominadas por um turbilhão caótico de jogos paralelos que derrubam jogos paralelos. Se a privacidade diminuir ainda mais, esses jogos paralelos se tornarão ainda mais fortes, e a boa vontade moral necessária para manter a sociedade funcionando pode se tornar irrealisticamente alta.
Será que os sistemas sociais poderiam ser redesenhados para não ter esse problema? Infelizmente, a teoria dos jogos praticamente explicitamente diz que isso é impossível (com uma exceção: ditadura total). Na versão da teoria dos jogos que se concentra na escolha individual - ou seja, na versão que assume que cada participante toma decisões de forma independente e que não permite a possibilidade de grupos de agentes trabalhando como um para o benefício mútuo, os projetistas de mecanismos têm uma ampla latitude para jogos de "engenheiro"para alcançar todos os tipos de resultados específicos. Na verdade, existemprovas matemáticasque para qualquer jogo, pelo menos um equilíbrio de Nash estável deve existir, e assim analisar tais jogos se torna viável. Mas na versão da teoria dos jogos que permite a possibilidade de coalizões trabalharem juntas (ou seja, "coludir"), chamada teoria dos jogos cooperativos,podemos provar issoexistem grandes classes de jogos que não têm nenhum resultado estável (chamado de núcleo)”). Em tais jogos, seja qual for o estado atual das coisas, sempre há alguma coalizão que pode desviar dele lucrativamente.
Se levamos a matemática a sério, nóschegar à conclusãoque a única maneira de criar estruturas sociais estáveis é ter alguns limites sobre a quantidade de coordenação entre os participantes que podem acontecer - e isso implica em forte privacidade (incluindo a possibilidade de negação). Se você não levar a matemática a sério por si só, então basta observar o mundo real, ou pelo menos pensar no que algumas das situações principal-agente descritas acima poderiam se tornar se fossem dominadas por jogos paralelos, para chegar à mesma conclusão.
Note que isso introduz outro argumento para o porquê de as portas dos fundos do governo serem arriscadas. Se todos tiverem a capacidade ilimitada de coordenar com todos sobre tudo, o resultado é o caos. Mas se apenas algumas pessoas puderem fazê-lo, porque têm acesso privilegiado à informação, então o resultado é que elas dominam. Um partido político tendo acesso aos bastidores às comunicações do outro pode facilmente significar o fim da viabilidade de ter múltiplos partidos políticos.
Outro exemplo importante de uma ordem social que depende de limites para a colusão a fim de funcionar é a atividade intelectual e cultural. A participação na atividade intelectual e cultural é intrinsecamente uma tarefa de interesse público motivada intrinsecamente: é muito difícil criar incentivos extrínsecos que visem contribuições positivas para a sociedade, precisamente porque a atividade intelectual e cultural é, em parte, a atividade de determinar quais ações na sociedade são ações positivas em primeiro lugar. Podemos criar incentivos comerciais e sociais aproximados que apontam na direção certa, mas eles também requerem um forte complemento de motivação intrínseca. Mas isso também significa que esse tipo de atividade é altamente frágil a motivações extrínsecas desalinhadas, particularmente jogos paralelos como pressão social e coerção. Para limitar o impacto de tais motivações extrínsecas desalinhadas, a privacidade é mais uma vez necessária.
Imagine um mundo onde a criptografia de chave pública e de chave simétrica simplesmente não existisse. Nesse mundo, enviar mensagens de forma segura através de longas distâncias seria inherentemente muito mais difícil - não impossívelmas difícil. Isso levaria a muito menos cooperação internacional ocorrendo e, como resultado, muito mais continuaria a acontecer por meio de canais offline presenciais. Isso teria tornado o mundo um lugar muito mais pobre e desigual.
Vou argumentar que hoje estamos exatamente nesse lugar hoje, em relação a um mundo hipotético de amanhã onde formas muito mais fortes de criptografia estavam amplamente disponíveis - em particular, criptografia programável, complementada por formas mais fortes de segurança de pilha completa e verificação formal para nos dar garantias sólidas de que essa criptografia está sendo usada corretamente.
O Protocolos do deus egípcio: três construções poderosas e altamente versáteis que nos permitem realizar cálculos em dados ao mesmo tempo em que mantêm os dados completamente privados.
Uma excelente fonte de exemplos é a saúde. Se você conversar com alguém que esteve trabalhando em longevidade, resistência a pandemias ou outros campos da saúde na última década, eles dirão universalmente que o futuro do tratamento e prevenção é personalizado, e a resposta eficaz depende muito de dados de alta qualidade, tanto dados sobre indivíduos quanto dados sobre o ambiente. Proteger efetivamente as pessoas contra doenças transmitidas pelo ar requer saber onde a qualidade do ar é mais alta e mais baixa, e em quais regiões os patógenos estão surgindo em determinado momento. As clínicas de longevidade mais avançadas dão recomendações e tratamentos personalizados com base em dados sobre seu corpo, preferências alimentares e estilo de vida.
No entanto, cada uma dessas coisas são simultaneamente enormes riscos de privacidade. Estou pessoalmente ciente de um incidente em que um monitor de ar foi dado a um funcionário que 'ligou para casa' para uma empresa, e os dados coletados foram suficientes para determinar quando esse funcionário estava tendo relações sexuais. Por razões como esta, espero que por padrão muitas das formas mais valiosas de dados não serão coletadas, precisamente porque as pessoas têm medo das consequências para a privacidade. E mesmo quando os dados são coletados, quase sempre não serão amplamente compartilhados ou disponibilizados para os pesquisadores - em parte por razões comerciais, mas com a mesma frequência por causa das preocupações com a privacidade envolvidas.
O mesmo padrão se repete em outras esferas. Há uma enorme quantidade de informações sobre nós mesmos em nossas ações, nos documentos que escrevemos, nas mensagens que enviamos em várias aplicações e nas várias ações nas redes sociais, que poderiam ser usadas de forma mais eficaz para prever e fornecer as coisas que precisamos em nossas vidas diárias. Há uma enorme quantidade de informações sobre como interagimos com nossos ambientes físicos que não estão relacionadas à saúde. Hoje, faltam ferramentas para usar efetivamente essas informações sem criar pesadelos de privacidade distópicos. Amanhã, podemos ter essas ferramentas.
A melhor maneira de resolver esses desafios é usar criptografia forte, que pode nos permitir obter os benefícios de compartilhar dados sem as desvantagens. A necessidade de acessar dados, incluindo dados pessoais, só se tornará mais importante na era da IA, pois há valor em poder treinar e executar localmente “gêmeos digitais” que podem tomar decisões em nosso nome com base em aproximações de alta fidelidade de nossas preferências. Eventualmente, isso também envolverá o uso da tecnologia de interface cérebro-computador (BCI), lendo entradas de alta largura de banda de nossas mentes. Para que isso não leve a uma hegemonia global altamente centralizada, precisamos de maneiras para que isso seja feito com respeito à privacidade forte. A criptografia programável é a solução mais confiável.
Meu AirValentmonitor de qualidade do ar. Imagine um dispositivo como este que coleta dados de qualidade do ar, disponibiliza estatísticas agregadas publicamente em um mapa de dados abertos e recompensa você por fornecer os dados - tudo isso usando criptografia programável para evitar revelar seus dados de localização pessoal e verificar que os dados são genuínos.
Técnicas de criptografia programáveis como provas de conhecimento zero são poderosas, porque são como tijolos de Lego para o fluxo de informações. Eles podem permitir controle detalhado de quem pode ver quais informações e, frequentemente, o que é mais importante, que informações podem ser vistas. Por exemplo, posso provar que tenho um passaporte canadense que mostra que tenho mais de 18 anos, sem revelar mais nada sobre mim.
Isso torna possível todos os tipos de combinações fascinantes. Posso dar alguns exemplos:
representação de pools de privacidade
os taiwanesesVerificador de Mensagensaplicativo, que dá ao usuário a opção de ligar ou desligar vários filtros, aqui de cima para baixo: verificação de URL, verificação de endereço de criptomoeda, verificação de boatos
Recentemente, ChatGPT anunciouque começará a alimentar suas conversas passadas no AI como contexto para suas conversas futuras. Que a tendência continuará nessa direção é inevitável: um AI olhando suas conversas passadas e obtendo insights delas é fundamentalmente útil. No futuro próximo, provavelmente veremos pessoas criando produtos de AI que fazem intrusões ainda mais profundas na privacidade: coletando passivamente seus padrões de navegação na internet, histórico de e-mails e conversas, dados biométricos e muito mais.
Na teoria, seus dados permanecem privados para você. Na prática, nem sempre parece ser o caso:
“Wow! ChatGPT tem um bugE empurra perguntas feitas por outros para mim! Isso é uma grande falha de privacidade. Fiz uma pergunta, recebi um erro e depois 'Tentar novamente' gerou uma pergunta que eu nunca faria.
É sempre possível que a proteção da privacidade tenha funcionado bem e, neste caso, a IA alucinou ao gerar uma pergunta que Bruce nunca fez e respondendo a ela. Mas não há maneira de verificar. Da mesma forma, não há como verificar se nossas conversas estão sendo usadas ou não para treinamento.
Isso é tudo muito preocupante. Ainda mais perturbadores são os casos de uso explícitos de vigilância de IA, onde dados (físicos e digitais) sobre pessoas estão sendo coletados e analisados em grande escala sem o seu consentimento. O reconhecimento facial já está ajudando regimes autoritários reprimir a dissidência políticaem uma escala massiva. E o mais preocupante de todos é a inevitável fronteira final da coleta e análise de dados de IA: a mente humana.
Em princípio, a tecnologia de interface cérebro-computador tem um poder incrível para impulsionar o potencial humano. Pegue a história de Noland Arbaugh, Primeiro paciente da Neuralink até o ano passado:
O dispositivo experimental deu a Arbaugh, agora com 30 anos, um senso de independência. Antes, usar um mouth-stick exigia que alguém o posicionasse em pé. Se ele deixasse cair o mouth-stick, precisava ser pego para ele. E ele não podia usá-lo por muito tempo ou desenvolveria feridas. Com o dispositivo Neuralink, ele tem quase controle total de um computador. Ele pode navegar na web e jogar jogos de computador sempre que quiser, e a Neuralink diz que ele tem estabelecer o recorde humano de controle de cursor com um BCI.
Hoje, esses dispositivos são poderosos o suficiente para apoiar os feridos e doentes. Amanhã, eles serão poderosos o suficiente para dar às pessoas totalmente saudáveis uma oportunidade de trabalhar com computadores e se comunicar telepaticamente umas com as outras (!!), em um nível de eficiência que para nós parece inimaginável. Mas interpretar realmente os sinais cerebrais para tornar esse tipo de comunicação possível requer IA.
Existe um futuro sombrio que poderia surgir naturalmente como uma confluência dessas tendências, e obtemos superagentes de silício que estão absorvendo e analisando informações sobre todos, incluindo como eles escrevem, agem e pensam. Mas também existe um futuro mais brilhante, onde obtemos os benefícios dessas tecnologias enquanto preservamos nossa privacidade.
Isso pode ser feito com uma combinação de algumas técnicas:
Em 2008, o filósofo libertário David Friedman escreveuum livro chamado Futuro Imperfeito, em que ele apresentou uma série de esboços sobre as mudanças na sociedade que novas tecnologias podem trazer, nem todas a seu favor (ou ao nosso favor).uma seção, ele descreve um futuro potencial onde vemos uma interação complicada entre privacidade e vigilância, onde o crescimento da privacidade digital contrabalança o crescimento da vigilância no mundo físico:
Não adianta usar uma criptografia forte para o meu e-mail se um mosquito de vídeo estiver sentado na parede me observando digitar. Portanto, a privacidade forte em uma sociedade transparente requer alguma forma de guardar a interface entre meu corpo no mundo real e o ciberespaço ... Uma solução de baixa tecnologia é digitar sob um capuz. Uma solução de alta tecnologia é algum tipo de ligação entre a mente e a máquina que não passe pelos dedos - ou por qualquer outra coisa visível a um observador externo.24
O conflito entre transparência no espaço real e privacidade no ciberespaço também segue na direção oposta... Meu computador de bolso criptografa minha mensagem com sua chave pública e a transmite para o seu computador de bolso, que descriptografa a mensagem e a exibe por meio dos seus óculos de realidade virtual. Para garantir que nada esteja lendo os óculos por cima do seu ombro, os óculos transmitem a imagem para você não exibindo-a em uma tela, mas sim usando um pequeno laser para escrevê-la na sua retina. Com sorte, o interior do seu globo ocular ainda é um espaço privado.
Poderíamos acabar em um mundo onde ações físicas são inteiramente públicas, transações de informações inteiramente privadas. Tem algumas características atrativas. Cidadãos privados ainda serão capazes de aproveitar a forte privacidade para localizar um assassino, mas contratá-lo pode custar mais do que estão dispostos a pagar, uma vez que em um mundo suficientemente transparente todos os assassinatos são detectados. Cada assassino executa uma comissão e vai diretamente para a cadeia.
E quanto à interação entre essas tecnologias e o processamento de dados? Por um lado, é o processamento moderno de dados que torna a sociedade transparente uma ameaça - sem isso, não importaria muito se você gravasse em vídeo tudo o que aconteceu no mundo, pois ninguém nunca poderia encontrar os seis centímetros de fita de vídeo específicos que ele queria nos milhões de quilômetros produzidos a cada dia. Por outro lado, as tecnologias que apoiar a forte privacidade proporcionam a possibilidade de restabelecer a privacidade, mesmo em um mundo com processamento moderno de dados, mantendo as informações sobre suas transações longe de qualquer pessoa que não seja você.
Um mundo assim pode muito bem ser o melhor de todos os mundos possíveis: se tudo correr bem, veríamos um futuro onde há muito pouca violência física, mas ao mesmo tempo preservamos nossas liberdades online e garantimos o funcionamento básico dos processos políticos, cívicos, culturais e intelectuais na sociedade, que dependem de alguns limites para a transparência total das informações para sua operação contínua.
Mesmo que não seja ideal, é muito melhor do que a versão em que a privacidade física e digital chega a zero, acabando eventualmente incluindo a privacidade de nossas próprias mentes, e em meados de 2050 começamos a ver artigos argumentando que, é claro, é irrealista esperar ter pensamentos que não estejam sujeitos a interceptação legal, e respostas a esses artigos consistindo em links para o incidente mais recente em que um LLM de uma empresa de IA foi explorado, o que resultou em um ano em que os monólogos internos privados de 30 milhões de pessoas vazaram para toda a internet.
A sociedade sempre dependeu de um equilíbrio entre privacidade e transparência. Em alguns casos, eu também apoio limites à privacidade. Para dar um exemplo totalmente desconectado dos argumentos usuais que as pessoas dão a esse respeito, eu apoio as ações do governo dos EUA para proibir cláusulas de não concorrência em contratos, principalmente não por causa de seus impactos diretos sobre os trabalhadores, mas porque são uma maneira de forçar o conhecimento tácito do domínio das empresas a ser parcialmente de código aberto. Forçar as empresas a serem mais abertas do que gostariam é uma limitação da privacidade - mas eu argumentaria que é benéfico líquido. Mas, do ponto de vista macro, o risco mais premente da tecnologia em um futuro próximo é que a privacidade atingirá níveis próximos do mínimo histórico, e de uma maneira altamente desequilibrada, em que os indivíduos mais poderosos e as nações mais poderosas obtêm muitos dados sobre todos, e todos os outros verão quase nada. Por esse motivo, apoiar a privacidade de todos e tornar as ferramentas necessárias de código aberto, universais, confiáveis e seguras é um dos desafios importantes de nosso tempo.
Este artigo é reproduzido de [ Vitalik]. Todos os direitos autorais pertencem ao autor original [Vitalik]. Se houver objeções a esta reimpressão, entre em contato com o Gate Learnequipe e eles vão lidar com isso prontamente.
Isenção de responsabilidade: As opiniões expressas neste artigo são exclusivamente do autor e não constituem qualquer conselho de investimento.
As traduções do artigo para outros idiomas são feitas pela equipe Gate Learn. A menos que seja mencionado, copiar, distribuir ou plagiar os artigos traduzidos é proibido.