Ir para o conteúdo
ou

Software livre Brasil

Tela cheia Sugerir um artigo
 Feed RSS

Comunidade da Revista Espírito Livre

20 de Junho de 2009, 0:00 , por Software Livre Brasil - | Ninguém está seguindo este artigo ainda.

A Revista Espírito Livre é uma iniciativa que reune colaboradores, técnicos, profissionais liberais, entusiastas, estudantes, empresário e funcionários públicos, e tem como objetivos estreitar os laços do software livre e outras iniciativas e vertentes sócio-culturais de cunho similar para com a sociedade de um modo geral, está com um novo projeto neste ano de 2009.

A Revista Espírito Livre visa ser uma publicação em formato digital, a ser distribuída em PDF, gratuita e com foco em tecnologia, mas sempre tendo como plano de fundo o software livre. A publicação já se encontra na terceira edição. A periodicidade da Revista Espírito Livre é mensal.


Mageia 5 convida: Hora de agitar suas habilidades artísticas

5 de Junho de 2014, 14:01, por Software Livre Brasil - 0sem comentários ainda

mageia

A equipe de arte da Mageia comunica que está aberta a sugestões para a criação da arte da Mageia 5.

Por favor envie o seu trabalho artístico, no formato PNG (sem jpgs, gifs ou BMPs), para o Mageia 5 Flickr drop. Seus arquivos de origem (xcf ou SVG) devem estar disponível se for solicitado. A obra de arte que você enviar deve ser original.

Por favor, consulte Mageia do artwork guidelines, agora disponível no Mageia Wiki. Essas diretrizes, esperamos, irá tornar mais fácil para você criar obras de arte originais.

Quem quiser contribuir, ver as dicas de como participar no Blog Mageia

O Alpha 1 da Mageia 5 deverá sair em 03/06/2014 e o lançamento final está previsto para 19/12/2014, conforme o plano de
desenvolvimento
.

Com informações da Mageia.



Reset the net! A Rede Espírito Livre apóia esta campanha pela liberdade na rede!

5 de Junho de 2014, 10:59, por Software Livre Brasil - 0sem comentários ainda

resetthenet2

Dia 5 de junho completa um ano das primeiras revelações de Edward Snowden. De lá pra cá, temos assistido várias iniciativas de governos em controlar a internet, espionar seus povos, violando seus direitos básicos à privacidade.

É hora de dar um basta! Podemos fazer isso! Vamos usar a rede e dar um RESET nesta internet controlada e vigiada. Há diversos programas livres que podem ser usados para garantir nossa segurança e privacidades. Vamos usá-los!

Dia 5 de junho é o início de nossa revolução! Iremos iniciar a divulgar, mostrar, ensinar a cada um que se interessar como garantir, com a tecnologia, seus direitos básicos.

Para mais informações, acesse www.resetthenet.org

Abaixo, algumas organizações que apóiam esta causa:

cloudFonte: Resetthenet.org e Nerdices



06 de Junho é dia de desligar o IPv4!

5 de Junho de 2014, 10:55, por Software Livre Brasil - 0sem comentários ainda

IPV6

No segundo aniversário do World IPv6 Launch, os profissionais de TI estão convidados a fazer um teste, desligando o IPv4 em seus próprios equipamentos.

Calma, seu provedor, seus sites preferidos, ou o departamento de TI da sua empresa, não vão desligar o IPv4! Esse teste é pessoal e voluntário. Quem quiser participar, deve desligar o IPv4 em seu próprio computador e depois compartilhar seus resultados.

  • Verifique se sua rede já tem suporte a IPv6.
  • Procure na Internet como desativar o IPv4 no seu dispositivo, e faça isso!
  • Navegue, envie emails, use a Internet normalmente durante o dia. Ou tente, pelo menos. Faça anotações e observe o que funciona e o que não funciona.
  • Preencha o formulário abaixo ou comente aqui no post.

Mais informações em: http://www.internetsociety.org/deploy360/blog/2013/12/campaign-turn-off-ipv4-on-6-june-2014-for-one-day/



Wikipedia, a conquista civilizatória do século?

4 de Junho de 2014, 15:30, por Software Livre Brasil - 0sem comentários ainda

26-04-2013_wikipedia-logo

Mil volumes com cerca 1,2 mil páginas cada, capa dura e texto em preto sobre papel branco. Seria assim a versão impressa da Wikipédia, a maior enciclopédia digital do mundo, se uma campanha de crowdfunding (espécie de “vaquinha virtual”) arrecadasse 50 mil dólares (120 mil reais, aproximadamente).

O montante era o necessário para imprimir os 4,3 milhões de artigos da versão do site em inglês, mas a campanha acabou malsucedida no final do mês passado e obteve apenas 25% daquele total. A iniciativa partiu da PediaPress, parceira oficial da Wikimedia Foundation Inc., instituição sem fins lucrativos com sede em São Francisco (EUA), responsável pela Wikipédia e outros projetos. No vídeo da campanha, um dos argumentos sugere que os mil volumes estariam desatualizados tão logo fossem publicados. Então, para que o esforço? Justamente porque transformar a Wikipédia num produto físico seria a melhor maneira de compreender suas dimensões.

Ao longo dos séculos, seja nos 37 volumes da História Natural, de Plínio, o Velho, filósofo e naturalista que viveu no primeiro século da era cristã na biblioteca de Alexandria, fundada no início do século III a.C, até a Encyclopédie, surgida do projeto iluminista conduzido na França do século XIII por Denis Diderot e Jean d’Alembert, o homem sempre ambicionou reunir a totalidade do conhecimento humano. E quem melhor encarnou essa pretensão de descrever o estado atual do conhecimento foram as enciclopédias, termo que surgiu da expressão grega enkylios paideia (educação circular).

O fracasso da “Wikipédia impressa” parece estar ligado a mudanças de hábitos geradas a partir da massificação do uso da internet e do computador. Além disso, o alto custo de produção das enciclopédias impressas e as baixas vendas demonstraram que o antigo modelo de negócio já não era viável.

A história da Wikipédia se desenha a partir de 1995, quando o americano Ward Cunningham criou um software conhecido como WikiWikiWeb – a palavra wiki, no idioma havaiano, significa “super-rápido”. Cunningham queria um sistema que facilitasse a condução e a documentação de grandes projetos de informática. E os wikis permitiam uma edição coletiva dos textos a qualquer dia e hora, sem estabelecer limites entre autor e leitor. Seis anos mais tarde, surgiria a Wikipédia, época em que o mercado contava com a tradicional Encyclopædia Britannica e a enciclopédia Microsoft Encarta.

A Encarta, lançada em 1993 pela empresa de Bill Gates, fora inicialmente vendida apenas em CD-ROM e teve uma versão on-line a partir de 2005. Em 2009, a Encarta fechou as portas sob a alegação de que “as pessoas hoje em dia buscam e consomem informação em consideráveis e diferentes maneiras do que há alguns anos”. Três anos depois da Encarta, foi a vez da Britannica, herdeira da Encyclopédiefrancesa, com 244 anos de história, anunciar o fim da sua edição em papel. Segundo seu presidente, Jorge Cauz, o fim soou como um “ritual de iniciação à nova era”. Os pesados volumes da enciclopédia Britannica, com suas letras douradas na lombada, foram um objeto quase básico nas famílias britânicas e americanas desde meados do século XX, quando centenas de vendedores ambulantes as ofereciam de porta em porta. O auge de vendas ocorreu nas décadas de 1970 e 1980, quando, por exemplo, antes do boom da internet, as vendas atingiram 120 mil unidades em 1989 só nos EUA.

A primeira edição da Britannica (1784) foi produzida na Escócia, em Edimburgo, e tinha 2,7 mil páginas. Era dividida em três volumes e contou com artigos de Benjamin Franklin e John Locke. A edição de 1889, considerada uma das melhores de todos os tempos, teve participação de Charles Darwin e Karl Marx. Agora, disponível somente na internet, a Britannica mantém atualização constante dos verbetes e, além de oferecer parte do conteúdo gratuitamente, possibilita a assinatura online para os usuários acessarem o conteúdo completo em diferentes plataformas digitais. A Britannica era impressa a cada dois anos e sua última edição no formato antigo circulou com 32 volumes e custava 1,4 mil dólares (aproximadamente 3,2 mil reais). Nela, havia atualizações sobre o projeto do Genoma Humano e a questão do aquecimento global. As 4 mil unidades restantes no estoque esgotaram-se em menos de três semanas, resultado da comoção de muitos com o anúncio do seu fim em papel. No Twitter, em tom de reconciliação amorosa, uma pessoa escreveu: “Sinto muito não ter sido fiel a você, Encyclopædia Britannica. A Wikipédia estava ali, à mão, mas não significou nada. Por favor, volte!”.

Em artigo publicado no ano passado, Cauz fez um balanço de todo o processo. Para ele, o fim da edição em papel começou muito antes da Wikipédia. “O modelo de vendas começou a ruir em 1991, quando o público tinha menos tempo e paciência para atender um vendedor na porta de casa e quando computadores começaram a vir com leitor de CD-ROM (…) Foi uma jogada brilhante da Microsoft [dona da Encarta] e algo muito prejudicial para a Britannica.” O sucesso da Wikipédia, diz Cauz, reforçou a decisão daBritannica de pôr fim ao papel – responsável por 1% do faturamento da empresa. “Assim como muitas inovações de ruptura, a Wikipédia tinha qualidade inferior: se fosse um vídeo, seria granulado e fora de foco. Mas o público não estava nem aí, pois a Wikipédia tem um número imenso de verbetes, é fácil de usar e é grátis. Não poderíamos competir em quantidade ou preço. Achávamos que o consumidor preferia nosso material de referência? Sim. Achávamos que estava disposto a pagar por isso? Não necessariamente.” Segundo Cauz, a Britannica mantém hoje 500 mil assinantes on-line.

No Brasil, a versão em português da Britannica foi publicada pela primeira vez em 1963, com o nome de Enciclopédia Barsa. No corpo editorial estavam Jorge Amado, Antônio Calado e Oscar Niemeyer, entre outros intelectuais brasileiros. Todos escreveram textos para aquela primeira edição, cuja leva inicial, de 45 mil exemplares, esgotou-se em oito meses. Em 2005, a Barsa foi comprada pelo grupo editorial espanhol Barsa Planeta. E, curiosamente, ao contrário de sua progenitora, a Barsa mantém ativa sua edição em papel, além de oferecer a versão online do produto. “Estrategicamente, o modelo de negócios da empresa para comercialização dos nossos programas educativos e enciclopédias evoluiu em todos os aspectos”, informou Mauricio Gregorio, presidente corporativo do Grupo Planeta Brasil, a Retrato do Brasil.

Quem adquire a Barsa precisa reservar um bom espaço na estante para acomodar suas cerca de 10 mil páginas organizadas em 18 volumes. Acompanhada de um CD-ROM, ela custa 3 mil reais em média (preço que varia conforme o modelo de capa escolhido). Em 2012,  70 mil unidades foram vendidas. Indagado sobre a “concorrência” da Wikipédia, Gregorio diz que o maior atrativo da Barsa é a “credibilidade do conteúdo e a confiabilidade dos mais de 160 mil verbetes oferecidos”. “Não competimos com portais genéricos de informação.”

Genérica ou não, a Wikipédia surgiu de uma tentativa de fazer dar certo a Nupedia, o “projeto-anjo” dos americanos Jimmy Wales, especialista em finanças, e Larry Sanger, então estudante de filosofia. A dupla desejava criar uma enciclopédia gratuita e online na qual os artigos seriam escritos por especialistas e com rígido processo de revisão. Por conta da lentidão na produção, a dupla de criadores introduziu o wiki de Cunningham num site paralelo, que serviria de suporte para acelerar a dinâmica da Nupedia. Para surpresa geral, a Wikipédia (nome cunhado por Sanger) superou a Nupedia em tamanho e acessos em pouco tempo, criando desde cedo uma pequena comunidade de editores constantes – hoje há mais de 80 mil deles ativos no mundo. Em comparação, em três anos a Nupedia conseguiu publicar somente 24 artigos, enquanto a Wikipédia publicou mais de 20 mil.

Atrás de Facebook, Google, YouTube e Yahoo!, a enciclopédia livre é o quinto site mais acessado do mundo, com impressionantes 500 milhões de acessos diários. Suas características modificaram a forma de se compartilhar conhecimento gratuito na web, já que cada tópico de diferentes temas é editado pelos próprios internautas – cada um agregando mais informações a respeito de um mesmo assunto. Evidentemente, o site mantém um “controle de qualidade”, classificando, por exemplo, um artigo como pendente de fontes ou alertando quando as informações são parciais demais. Publicada em 288 línguas diferentes, a Wikipédia possui hoje mais de 30 milhões de artigos.

No caso lusófono – que inclui o Brasil – são mais de 800 mil artigos. “A Wikipédia é fruto de um esforço enorme de um grande número de pessoas”, diz Carlos d’Andréa, professor do Departamento de Comunicação Social da Universidade Federal de Minas Gerais (UFMG), que defendeu há três anos tese de doutorado sobre o site. “É um projeto que, em tese, tinha tudo para dar errado. Ter alcançado tamanha amplitude e visibilidade não é pouca coisa. Tem problemas? Sim, muitos. Virtudes? Várias também. É uma fonte de informação a ser usada com cuidado – como qualquer outra fonte, em sua peculiaridade, também deve ser vista com alguma reserva.”

Henry Jenkins, um dos principais pensadores do impacto das novas tecnologias no mundo, autor do livro Cultura da convergência (Editora Aleph, 2008), diz a RB que a Wikipédia tem muitas vantagens em relação às enciclopédias tradicionais por conseguir ser mais inclusiva. “Ela pode ser muito mais atual ao dar respostas a eventos que estão acontecendo agora, mudando as informações disponíveis”, explica o professor de comunicação. “Nós podemos ver de onde veio a informação e revisar os processos de forma que a comunidade decida a qualidade daquela informação. O sistema permite que perspectivas diferentes possam coexistir em vez de serem resolvidas por um ‘especialista’. Tudo isso proporciona uma relação diferente entre o público e a informação compartilhada por uma sociedade.”

Mesmo considerando a Wikipédia um dos “maiores feitos da humanidade na era digital”, Jenkins constata que ela não é homogênea. “A abrangência dos tópicos não é tão diversificada quanto muitos de nós gostaríamos e a exigência de a informação ter sido publicada previamente, nesse caso, faz com que a Wikipédia acabe reproduzindo as lacunas da grande mídia. Há uma parcialidade sistêmica nos que participam desse processo, cujas verdades acabam reproduzidas. O leitor precisa se manter atento ao ler uma entrada, assim como deveria estar atento ao ler qualquer coisa.”

Segundo a tese de D’Andréa, as críticas mais frequentes à Wikipédia relacionam-se à credibilidade da informação em um ambiente em que qualquer pessoa pode alterá-la. Para ele, se encararmos a Wikipédia como um fluxo e não um produto final, “é fundamental reconhecer que ela nunca está pronta e, portanto, não é possível ler seus artigos como uma verdade”. Em resposta aoscríticos mais vorazes, sua tese cita estudo publicado pela revista científica Nature há oito anos que avaliou a precisão de 42 verbetes de ciência da Wikipédia em inglês com os verbetes correspondentes da Britannica. Houve quatro erros graves de cada lado e a Britannica teve pouco menos erros factuais que a Wikipédia (123 a 162).

Para preservar a isenção dos artigos, a Wikipédia não tem anunciantes e sua receita vem, basicamente, de doações coletivas. É o único dos dez sites mais acessados do mundo que mantém uma proposta sem fins lucrativos. Hoje há mais de 2 milhões de doadores ao redor do mundo. Em uma campanha de 2011, por exemplo, mais de 1 milhão de voluntários doaram um total de 20 milhões de dólares. A sede, em São Francisco, tem pouco mais de 130 funcionários para manter todos os “projetos Wiki” em andamento. “O aspecto mais importante do modelo sem fins lucrativos é possibilitar que o projeto se mantenha focado no que nossa comunidade de editores voluntários mais valoriza: a capacidade de se manter neutro e distante de quaisquer fatores que poderiam influenciar a objetividade e a neutralidade da Wikipédia e de seus projetos irmãos”, explica o canadense Jay Walsh, consultor de comunicação e relações públicas do Wikimedia Foundation Inc.

Mas como é possível que uma enciclopédia escrita e editada por voluntários funcione? Segundo D’Andréa, o modelo de funcionamento da Wikipédia significa uma ruptura com o de produção editorial baseado em rotinas industriais estabelecidas a partir dos suportes impressos. Em geral, as enciclopédias são produzidas por uma equipe de “editores” junto com os “colaboradores especialistas”, e a expertise no assunto sempre foi um pré-requisito. No funcionamento da Wikipédia, o modelo é outro, baseado no “publique, depois filtre”. Nesse sentindo, a Wikipédia é um projeto fora da curva por evidenciar o quanto as pessoas se acostumaram ao primeiro modelo, aquele em que a produção de textos é centrada na figura de um autor e voltada para suportes que dificultam modificações após sua publicação.

Os artigos devem conter informações verificáveis, ou seja, não se pode opinar e deve constar somente o que já foi publicado em fontes consideradas confiáveis pela comunidade. É comum, por exemplo, ver em muitos artigos a própria Britannica ser indicada como fonte. Sua estrutura básica é a seguinte: além dos leitores – o sujeito que visita o site para se informar – existem os editores. Nesse “cargo”, para alterar qualquer informação, é preciso clicar na aba “Editar” presente em qualquer artigo. A alteração no texto é publicada e essa passa a ser a versão válida até que seja novamente mexida. Acima dos editores ficam os “administradores”, eleitos ou indicados por outros editores por causa da frequência e da qualidade de suas colaborações. Acima deles estão os “burocratas”, os chefes dos administradores (são quatro no Brasil). Acima de todos fica o steward – o juiz da Wikipédia –, corpo composto por 38 usuários encarregados de dirimir conflitos, por exemplo, entre burocratas e administradores.

Para intervir no site, um editor pode ou não se cadastrar. Se o fizer, torna-se um “wikipedista” e tem suas contribuições ligadas a seu perfil. Em 2012, por exemplo, o americano Justin Knapp, 30 anos, que escreve na enciclopédia sob o apelido de “koavf”, bateu um recorde ao ser reconhecido como o primeiro usuário a realizar 1 milhão de edições.Voluntário desde março de 2005, Knapp é formado em filosofia e ciência política pela Universidade de Indiana, mas procura conciliar o diploma com outras formas de trabalho, como entregador de pizzas, por exemplo. A contribuição para a enciclopédia virtual começou com edições anônimas, que hoje chegam a cerca de 385 por dia. Política, religião, filosofia e cultura popular são alguns dos temas mais abordados em seus artigos.

Editores não cadastrados são identificados pelo Internet Protocol (IP) atribuído ao computador naquela conexão. Sem exceção, todas as edições realizadas nos artigos são registradas na página “Histórico” – na qual é possível comparar versões, identificar o autor da edição, data, horário e comentários. A busca pelo consenso durante a edição contínua dos artigos da Wikipédia ocasiona, em inúmeros casos, disputas e conflitos, que são as chamadas “guerras de edições”.

A Wikipédia possibilita resgatar qualquer versão do artigo, principalmente em casos de edições feitas de má-fé, chamadas de “vandalismo”. Segundo D’Andrea, dois tipos de vandalismo são reconhecidos pelo projeto: o “furtivo” e o “explícito”. No primeiro caso, o usuário acrescenta informações incorretas ou adiciona imagens consideradas indecentes ou impróprias. Já o vandalismo explícito ocorre quando um editor “diverte-se em repetitivamente apagar conteúdo de páginas, em trocar informações corretas por erradas, em inserir termos de baixo calão ou ofensivos ao projeto ou, ainda, aos contribuintes do projeto”, mesmo após ter sido avisado por outro editor.

Recentemente, quando da morte do ator José Wilker, uma amiga do repórter postou atônita em seu Facebook um vandalismo do tipo “explícito”: “Nossa, fui ver que história é essa do José Wilker ter morrido e entrei no Wikipédia e lá estava ‘José Wilker faleceu no dia 5 de abril de 2014, aos 66 anos, vítima de infarto e deixou todo o seu dinheiro para a caridade e para pagar a conta de luz do Vasco’… hein? Entrei de novo e a história do Vasco já não estava mais…”

A rápida remoção do conteúdo impróprio pode ter sido realizada por ação humana (editor ou administrador) ou pelos robôs algorítimos da Wikipédia, como, por exemplo, o Salebot, software criado para fazer intervenções automáticas quando encontrar expressões suspeitas. O Salebot já fez mais de 180 mil interferências em verbetes da Wikipédia lusófona.

Segundo artigo publicado pela revista mensal Piauí sobre o assunto, o wikipedista tem ainda a possibilidade de vigiar um artigo de seu interesse. Nesse caso, ele é notificado sempre que o verbete selecionado passar por alguma alteração. “O artigo de Lula é vigiado por 170 usuários. O de Dilma Rousseff, por 112. O de José Serra, por 94. E o de Fernando Haddad, por menos de 30”, diz o texto. Em outro caso, quando da morte, em março de 2009, do maestro francês Maurice Jarre, um estudante irlandês decidiu fazer o que ele mais tarde chamou de um “experimento social”. Na biografia do músico, atribuiu-lhe uma frase fantasiosa: “Quando eu morrer, vai haver uma valsa final tocando na minha cabeça que apenas eu poderei ouvir”. A frase foi lembrada no obituário de Jarre publicado por jornais respeitáveis, como The GuardianThe Independent.

Jenkins diz que a força do projeto está justamente nesse processo mais livre e sem fim. “Talvez o que eu mais admire seja o esforço de articular um conjunto compartilhado de normas éticas sobre o significado de participar do projeto, normas que são debatidas, mas que determinam em grande medida como a informação é coletada, avaliada e postada no site.” A Encyclopédie francesa levou mais de duas décadas para ficar pronta. Aos 13 anos, produzida a todo instante por pessoas de graus diversos de conhecimento, a Wikipédia pode ser vista como uma enciclopédia viva – e, portanto, imperfeita e encantadora como todo ser dessa natureza. A afirmação de Wales, um de seus fundadores, de que é “impossível imaginar a internet sem colaboração”, reflete esse espírito wikipedista, que refuta a ideia de que a fonte do conhecimento tem de ser controlada.

AFOGADOS EM BITS

Em 1986, se toda a informação acumulada fosse colocada em CDs e distribuída aos seres humanos, cada um receberia apenas um. Vinte e um anos depois, seriam necessários 61

Martin Hilbert, professor doutor em comunicação e economia da Universidade do Sul da Califórnia, pesquisador do papel da informação, conversou com RB sobre o estudo que publicou na revista científica Science em 2011, no qual contabilizou com outra colega a quantidade de dados armazenados, transmitidos e processados por todos os dispositivos – analógicos e digitais – usados entre 1986 e 2007. O estudo revela que, em 2007, a humanidade foi capaz de armazenar 295 trilhões de megabytescomprimidos, comunicar quase dois quadrilhões de megabytese carregar 6,4 x 1018instruções por segundo em computadores. Um megabyteé o equivalente a 8 milhões de bits, a menor unidade para medir informação. Hoje, diz o estudo, somente 0,007% da informação do planeta está em papel.

A pesquisa também mostra a diferença de capacidade dos dispositivos tecnológicos antes e depois da revolução digital. Em 1986, quando apenas 0,8% dos suportes usados era digital, o armazenamento possível de informações era de apenas 2,6 trilhões de megabytes. Se essa informação fosse gravada em CD-ROMs (com capacidade de 700 megabytes cada um) e estes fossem distribuídos para a população de todo o planeta, cada habitante não precisaria nem sequer de um CD inteiro. Já para gravar a quantidade de bytes que conseguimos armazenar em 2007, seriam necessários 404 bilhões de CD-ROMs, o que daria 61 por habitante. Empilhados, eles ultrapassariam a distância entre a Terra e a Lua.

“A quantidade de informação tem crescido exponencialmente”, diz Hilbert. “Na verdade, ela sempre cresceu mais rápido do que nossas habilidades cognitivas. A era digital nos trouxe muitos alertas no sentido de que temos de ser mais humildes, diante de nossa limitada cognição do real. E a Wikipédia é um bom exemplo do que os sociólogos chamam de ‘construção social da realidade’.”

Fonte: Carta Capital



Brasil abandona padrão de criptografia maculado pela NSA

4 de Junho de 2014, 15:18, por Software Livre Brasil - 0sem comentários ainda

18-05-2013_bandeira-do-brasil

O governo brasileiro descartou, há cerca de três meses, um dos padrões criptográficos dos certificados digitais do sistema de chaves públicas ICP Brasil. Trata-se da versão 3, ou simplesmente V3, da cadeia de certificação – o que seria o namoro do sistema nacional de certificação digital com a criptografia por curvas elípticas.

Formalmente, alegou-se que não houve adesão das autoridades certificadoras. E, efetivamente, não há certificados emitidos com a V3. A decisão de revogar essa linha de certificados, no entanto, é a primeira resposta concreta às denúncias da espionagem indiscriminada dos Estados Unidos – e, especialmente, do envolvimento da NSA na padronização de sistemas criptográficos.

Entre as denúncias de Edward Snowden, uma importante tratou da participação da agência de espionagem nos processos de padronização do Instituto Nacional de Padrões e Tecnologia (NIST, na sigla em inglês). Não pelas proposições em si, visto que a NSA deve, por lei, ser ouvida nesse processo. Mas porque teria deliberadamente patrocinado falhas nos padrões criptográficos.

A V3 do sistema de certificação do ICP Brasil era baseada no sistema de criptografia identificado no ramo como “suíte B da NSA”. E foi essa suspeita de enfraquecimento que levou o Instituto Nacional de Tecnologia da Informação (ITI), órgão vinculado à Presidência da República que regula certificação digital no país, a revogar essa cadeia de certificação em fins de fevereiro.

“A V3 morreu ‘virgem’”, garante o diretor de auditoria, fiscalização e normalização do ITI, Pedro Paulo Machado, ao sustentar que não há certificados emitidos nessa ‘linha’. O Instituto, no entanto, não pretende abandonar o uso das curvas elípticas na criptografia dos certificados digitais brasileiros. “Devemos normatizar a V4 em uma ou duas semanas, baseada na Brainpool”, explica.

Na prática, portanto, o Brasil vai trocar o padrão “americano” de criptografia por curvas elípticas pelo “europeu”, hoje patrocinado especialmente pelo análogo alemão do NIST, o BSI. A expectativa é que a primeira aplicação prática do sistema de curvas elípticas venha nos certificados digitais a serem embutidos nos novos passaportes brasileiros, esperados para outubro deste ano.

Fonte: Convergência Digital



Tags deste artigo: publicação código aberto software livre revista espírito livre revista opensource