Ir para o conteúdo
ou

Software livre Brasil

Tela cheia Sugerir um artigo
 Feed RSS

Comunidade da Revista Espírito Livre

20 de Junho de 2009, 0:00 , por Software Livre Brasil - | Ninguém está seguindo este artigo ainda.

A Revista Espírito Livre é uma iniciativa que reune colaboradores, técnicos, profissionais liberais, entusiastas, estudantes, empresário e funcionários públicos, e tem como objetivos estreitar os laços do software livre e outras iniciativas e vertentes sócio-culturais de cunho similar para com a sociedade de um modo geral, está com um novo projeto neste ano de 2009.

A Revista Espírito Livre visa ser uma publicação em formato digital, a ser distribuída em PDF, gratuita e com foco em tecnologia, mas sempre tendo como plano de fundo o software livre. A publicação já se encontra na terceira edição. A periodicidade da Revista Espírito Livre é mensal.


Governo estuda criar Plano Nacional da Internet das Coisas

4 de Julho de 2015, 19:11, por Revista Espírito Livre - 0sem comentários ainda

20130729theinternet

O Governo Federal estuda a criação de um Plano Nacional de Comunicação entre Máquinas e Internet das Coisas (M2M e IoT, nas siglas em inglês, respectivamente). Entre os objetivos estão o fomento à padronização de sistemas de IoT; a criação de uma regulamentação para tratar de temas como privacidade, segurança e direitos do consumidor em serviços de IoT; o lançamento de programas de financiamento de soluções de IoT, provavelmente com recursos do Funttel; e o estímulo à adoção de soluções de IoT pelo setor público. O escopo preliminar do projeto foi adiantado pelo secretário de Telecomunicações do Ministério das Comunicações (Minicom), Maximiliano Martinhão, durante o Forum Regional de IoT, organizado pela Cisco, nesta terça-feira, 23, no Rio de Janeiro. “Entendemos que o governo tem o papel de liderar o desenvolvimento do mercado de IoT”, disse o secretário.

Ideias para o Plano Nacional de M2M e IoT estão sendo discutidas no âmbito de uma comissão especial criada para acompanhar o desenvolvimento desse setor composta por representantes de órgãos governamentais e privados, como Ministério das Comunicações, Ministério da Ciência e Tecnologia, Anatel, Abinee, ABDI, BNDES Brasscom, GSMA e SindiTelebrasil.

Martinhão informou que entre maio de 2014 e abril de 2015 a quantidade de terminais de M2M em serviço no Brasil sem intervenção humana cresceu de 161 mil para 1,76 milhão. Em grande medida, esse aumento foi proporcionado pela desoneração do Fistel sobre as linhas celulares dentro desses terminais. Para o secretário, porém, são necessário novos passos para o desenvolvimento desse setor, que poderão ser tratados nesse plano nacional de M2M e IoT. “Há uma preocupação com a interoperabilidade. É preciso evitar que surjam ilhas de desenvolvimento de M2M no Brasil, com sistemas que não conversam entre si”, comentou.

Forum Mobile+

O Forum Mobile+, evento organizado pela Converge Comunicações e promovido por MOBILE TIME e TELETIME, terá em sua oitava edição, realizada este ano em 22 e 23 de setembro, no WTC, em São Paulo, um dia inteiro dedicado a IoT, com painéis sobre smart cities, utilities, indústria 4.0 e wearable devices aplicados a negócios. A grade preliminar e maiores informações estão disponíveis no site do evento.

Internet das Coisas pode gerar US$ 39 bilhões em economia para utilities dos EUA por ano

Empresas de distribuição de energia, água e gás natural perdem por ano US$ 39 bilhões nos EUA, por conta de vazamentos e outros problemas relacionados à eficiência de suas redes. Essas perdas poderiam ser resolvidas com a adoção de soluções de Internet das Coisas (IoT), como as smart grids na rede elétrica, por exemplo. Por setor, as perdas anuais são de US$ 24 bilhões no elétrico; US$ 13 bilhões no de distribuição de água; e US$ 2 bilhões no de gás natural. Os números foram apresentados por Ed May, diretor de desenvolvimento de negócios da Itron, durante o Forum Regional de IoT, evento organizado pela Cisco no Rio de Janeiro, nesta terça-feira, 23.

A Itron implementou junto com a Cisco uma solução de smart grid para a canadense BC Hydro, com a instalação de 1,8 milhão de medidores inteligentes em 18 meses. Foi adotada uma plataforma aberta, com IPv6, e conectada a diferentes aplicações, desde a verificação do consumo de energia em tempo real pelo consumidor em sua residência, até recarga de veículos elétricos.

Por Fernando Paiva.

Com informações de Teletime.



O ‘anti-google’ e a navegação sem rastreio

4 de Julho de 2015, 19:05, por Revista Espírito Livre - 0sem comentários ainda

images.duckduckgo

Dois temas ligados à privacidade e guarda de dados digitais de usuários da web chamaram minha atenção nos último dias: o primeiro foi o lançamento de um novo motor de buscas que não rastreia os usuários nem mantém bancos de dados sobre seus utentes. O segundo tema trata do que podemos fazer para combater tanta vulnerabilidade em nossa navegação na web, em grande parte facilitada pela arquitetura (desenho) de nossos navegadores (ou browsers).

O quão vulnerável é o seu navegador? Ou o meu? Você sabia que, de acordo com as suas configurações, você pode estar mais ou menos exposto a invasões e espionagem? Há um site na web que mostra o quão frágeis somos na web diante de identificadores digitais das grandes corporações e sites da rede, que insistem em tentar provar que precisam conhecer nossas vidas a fundo para nos oferecerem “serviços customizados”.

Quanto à nova ferramenta de buscas, ela é um instrumento da era pós-Edward Snowden, totalmente construída com software de licença livre. A ampla colaboração entre a Agência Nacional de Informação (NSA) norte-americana e a mídia social (nomeadamente o Google e o Facebook) durante a vigência da “Lei Patriótica”, ajudou a espionar mais de 320 milhões de cidadãos comuns na vã tentativa de localizar 300 perfis suspeitos. Isso serviu para alertar a população americana sobre a ousadia inconstitucional da agência de segurança americana e abriu espaço para o surgimento de um novo nicho no mercado de buscas e pesquisas na web: a consulta sem rastreio, captura de dados e do IP dos usuários.

O International Business Times (16/6) anunciou a expansão recente de um novo motor de buscas que não coleta ou armazena dados dos buscadores. Apresenta respostas em tempo muito rápido porque não perde tempo a rastrear os internautas que são usuários do serviço (o DuckDuckGo) e capta informação de um número grande de fontes e outros buscadores online. Além de garimpar seu próprio conteúdo. Chegou o “anti-google”.

Criado em 2008 por Gabriel Weinberg, físico e mestre em Tecnologia e Política pelo Instituto de Tecnologia de Massachusetts (MIT), a ideia original nunca foi competir com a plataforma que tem o monopólio de fato das buscas na web, mas crescer entre um público alternativo que precisa de privacidade para pesquisar sem ser seguido na web. O Google dominou o mercado de buscas de tal forma que não há condição de um concorrente crescer a não ser em pequenos nichos. Vejamos sua posição no mundo:

Resultados impressionantes

O DuckDuckGo surgiu em 2008 com a ideia de oferecer mais respostas instantâneas e menos spam aos pesquisadores da web, através de um sistema híbrido de coleta de informação por meio de crowdsourcing, outros serviços de busca (todos menos o Google) e seu próprio rastreador, o DuckDuckBot. Em janeiro de 2009, seu idealizador resolveu não coletar ou compartilhar dados de usuários. Em 2011, Gabriel Weinberg e alguns auxiliares estabeleceram a sede do site na cidade de Paoli, na Pensilvânia. Em fevereiro de 2012, alcançaram o número de um milhão de buscas realizadas por dia.

Nos últimos dois anos o site de buscas cresceu 600% e já abriu seu caminho para o browser da Apple, o Safári. Isto não é muito: o Google, em seus anos iniciais (1998 e 1999), crescia a 17.000 % ao ano. O site Infostats (2015) informou que hoje o Google processa “mais de 40 mil consultas por segundo, o que se traduz em mais de 3,5 bilhões de buscas por dia e 1,2 trilhão de buscas por ano em todo o mundo”. Se o leitor quiser comprovar visualmente o poder colossal do Google, clique aqui e espante-se diante do volume de consultas que o gigante das buscas processa por todo o planeta.

O site de Weinberg não poderia nunca concorrer com isso. Nada vai abalar o domínio do Google nas buscas. Tudo o que ele oferece é uma interface amiga, intuitiva, um pouco mais pobre, mas não muito diferente de seu “concorrente” gigante. Só que muito mais simples e sem ofertas de serviços e aplicativos “gratuitos” que capturam seus dados na web. Seu grande diferencial é a privacidade: nem o IP dos usuários é registrado. O site conta com uma boa base de URLs cadastradas e as respostas às buscas são rápidas e organizadas. O novo site de buscas é financiado por anúncios ligados as pesquisas dos usuários e tem um bom potencial para crescimento.

O trabalho ainda está em andamento, há muito a ser feito e bastante espaço para melhorias, aperfeiçoamentos e crescimento de buscas sem rastreio, espionagem ou coleta de dados de usuários. Os resultados das buscas do novo motor são impressionantes, de alta qualidade em conteúdo e tem tudo para levar a startup para cima.

A identificação do navegador

A outra questão a ser avaliada é a vulnerabilidade de nossos navegadores da web (Mozilla, Explorer, Chrome, Safári e outros) a invasões e ataques contra nossas privacidades. Muitas vezes não cuidamos o suficiente da proteção de nosso tempo na rede ou de nossa presença online. Em 2012, a CNET (30/1) publicou um artigo que ensinava o internauta a prevenir-se das investidas do Google contra a privacidade dos navegantes, baseada na teoria da entropia. Que é uma medida matemática calculada em bits que nos permite medir o quão perto está um elemento a ponto de identificar uma pessoa específica na web.

Os elementos que, juntos, podem identificar alguém na web são o sexo, o dia ou mês de seu nascimento e seu código postal. Os três juntos, mais uma sequência de operações matemáticas, geram uma fórmula capaz de prever o grau de vulnerabilidade de seu navegador na web. Alguém na rede pode ser identificado a partir de 33 bits de entropia. Mas como saber o exato número de nossa vulnerabilidade ou possibilidade de identificação na web? Como saber se somos alvo fácil ou difícil para localização na web por terceiros indesejáveis?

O artigo da CNET apresentou o trabalho (site) da Fundação Fronteira Eletrônica (The Electronic Frontier Foundation), que diz na hora qual é o seu grau de entropia, ou o quão fácil (ou não) é localizar você na web: é o Panoptclick: clique neste link e ele dirá se seu navegador o deixa mais ou menos capaz de ser localizado ou rastreado na web. Qualquer número igual ou acima de 33 revela um navegador de fácil identificação.

As vítimas dos caçadores de dados

Fiz o teste e marquei 22,39 bits de informação identificável. Meu browser não é fácil de identificar ou tracejar na web. E eu consegui isto apenas escolhendo entre as opções de privacidade oferecidas pelo meu próprio navegador: abri a sua página de configurações e escolhi não permitir que outros sites rastreiem minhas rotas na web. Além de outras opções que expõem o internauta na rede. Nada complicado. Qualquer um pode fazer isso. Mas pouca gente na América ou no Brasil parece preocupar-se muito com privacidade. Os europeus foram os únicos a estabelecer autoridades estatutárias encarregadas da defesa dos dados dos usuários da internet.

Não basta apenas reclamar dos abusos, da espionagem ou da captação de nossos dados pessoais pelas megaplataformas do Vale do Silício. Ou tampouco confiar nas medidas de segurança de sites da web: temos que fazer a nossa parte e cuidar de nossas próprias defesas. Com pequenas modificações nas configurações de segurança e privacidade em nossos navegadores (como a “limpeza” habitual dos dados de navegação), podemos deixar as coisas mais difíceis para espiões da web, sejam eles estatais ou privados. Precisamos aprender a regular nossas configurações de segurança de navegação. Ou pagar o preço da indiferença aos perigos da web e seus “serviços gratuitos” oferecidos por grandes corporações tecnológicas.

Tudo isso não vai nos deixar invisíveis ou à prova de ataques na rede, nem evitará os abusos contra a privacidade de nossos dados na web. Mas vai permitir que não sejamos mais as primeiras e óbvias vítimas dos caçadores de dados e transmissores de spam da web.

Por Sergio da Motta e Albuquerque.

Com informações do Observatório da Imprensa.



Feijoada dietética: uma análise de Demi Getschko sobre o Internet.org

4 de Julho de 2015, 19:00, por Revista Espírito Livre - 0sem comentários ainda

Internet.org_Logo

Hoje discute-se muito a validade de propostas como Internet.org. Seria uma boa ideia trazer à rede os que têm equipamento móvel mas não podem pagar pacotes de dados? Mesmo que esse acesso seja possível apenas a uma parte fechada e segregada da rede? Ou seria essa uma forma de violar neutralidade da rede em si, dando ao usuário uma visão restrita da internet e fazendo-o pensar que se trata da rede toda?

Queremos preservar as características essenciais da internet. É nessa direção que o decálogo do CGI.br foi publicado em 2009 e em que o próprio Marco Civil seguiu. Duas dessas características são a possibilidade de livre inovação e a neutralidade dos protocolos da rede. Na internet não só é difícil fazer profecias sobre o que surgirá, como nada do que é novo precisará de licença para “dar as caras” na rede: bastará que siga os padrões acordados. Poderá tornar-se um sucesso em poucos anos, ou cair num esquecimento impiedoso, dependendo de como a comunidade o receber.

Aplicativos e propostas surgem continuamente e a internet acaba por, darwinianamente, selecionar os mais competitivos. Por outro lado, os mesmos protocolos que permitem a inovação sem barreiras leem os envelopes do que trafega, mas, sabiamente, ignoram o conteúdo. Não importa para a rede se um pacote carrega um importante trecho de mensagem, um pedaço de fotografia ou parte de uma música. E, além de não violar o conteúdo, não vetam origens e destinos da mensagens: é a neutralidade dos protocolos.

No Internet.org, nota-se um problema já no nome. “Internet.org” leva-nos a pensar que se trata da internet em si, mas isso é falso. É um serviço que, ao tempo em que se propõe “grátis”, é também restrito. Claro que “grátis” nada é, mas esqueçamos isso por enquanto.

Imaginemos um restaurante que anuncia “feijoada grátis” a quem quiser. Vamos com nosso prato ao balcão e recebemos nele uma colherada de couve. “Feijoada é mais que isso”, dirão, aborrecidos, os que conhecem. Mas, mesmo esses não teriam motivo de decepção se o cartaz anunciasse “couve grátis”. E, para os que nunca houvessem provado da feijoada, poderia parecer que feijoada é algo parecido com um punhado de couve refogada… Concluimos que o nome de “internet.org” não é apenas inadequado como pode gerar uma falsa percepção aos marinheiros de primeira viagem.

Independentemente do que achamos desse pedaço de couve fornecido, se aos bois fosse dado o nome correto, a razão de revolta seria menor. Afinal nada impede que existam serviços restritos e limitados na internet, mas eles não se confundem com o “acesso à internet”, que deve ser amplo, neutro e sem restrições.

Há, portanto, que respeitar ambos os princípios que aqui foram citados: deixar a livre experimentação na internet sem levar ao engano usuários, fazendo passar a parte pelo todo e, ao mesmo tempo, manter o conceito do acesso à rede geral amplo e neutro. Quem quiser provar da couve, especialmente os que nunca provaram da feijoada, deveria saber que há mais do que couve na internet. E que não venham a nos dizer que cuidam “do nosso bem” fornecendo-nos uma “feijoada dietética”!

Por Demi Getschko.

Com informações do Observatório da Imprensa.



Lançado Firefox 39 que traz melhorias de segurança

4 de Julho de 2015, 18:57, por Revista Espírito Livre - 0sem comentários ainda

firefox-logo

Já está disponível para download a nova versão do Firefox. A versão 39.0 conta com diversas melhorias de desempenho, além das já tradicionais correções relacionadas a segurança.

Dentre as novidades estão:

  • Compartilhe URLs do Hello nas redes sociais;
  • Projeto Silk: Animações suaves e scrooling (no Mac OS X);
  • Detecção de malware habilitado por padrão para downloads no Linux e OS X;
  • Removido o suporte ao SSLv3 para comunicações de rede;
  • Desabilitado o uso do algoritmo RC4, exceto para uma lista temporária de servidores confiáveis;
  • Melhorado o desempenho do fallback de IPv6 para IPv4;
  • Adicionado suporte para CSS Scroll Snap Points;
  • Atualizado NSS para a versão 3.19.2;
  • Entre outras várias correções de segurança.

Quer saber de mais detalhes sobre o Firefox 39? Você os encontra na nota de lançamento.

O download pode ser feito aqui.

Com informações da Mozilla e Phoronix.



Da onomatopeia gráfica à cauda longa

4 de Julho de 2015, 18:49, por Revista Espírito Livre - 0sem comentários ainda

deep-web

A deep web é tudo aquilo que está na internet mas não aparece nos buscadores convencionais. A presente assertiva, em menos de 140 caracteres, define a amplidão dividida em camadas que está bem abaixo do que acessamos, ou deveríamos acessar. Dentre benefícios a viagens sem volta por um mundo ilegal, este espaço obscuro da internet impressiona pelo absurdo intrínseco a ele.

Nesta vastidão de conteúdo existe, da forma mais literal conhecida, de tudo um pouco do que é inimaginável. No entanto, a deep web deve ser diferida de termos como dark internet, que diz respeito a todo o conteúdo que se tornou inalcançável pelos meios convencionais de acesso à internet. Também não existe relação entre o termo e darknet, que é uma rede subjacente e sem camadas que existe para manter o anonimato de dados.

De modo geral, a deep web é divida em cinco camadas. É importante ressaltar que é arriscado acessá-las, especialmente as últimas, que possuem um grau de risco ainda maior. O usuário pode se complicar com a polícia ou ter danos irreversíveis em seu computador, além do risco de ter dados vazados.

O vazamento de dados traz inúmeros transtornos para o internauta aventureiro que busca conteúdo – não importa de que natureza – na deep web. Isso pode ocasionar cartões de crédito clonados, contratação de planos que não foram autorizados e desfalque em conta corrente/poupança, além de problemas mais comuns como a invasão de contas de e-mail e redes sociais.

Para evitar estes empecilhos, até quem não usa a deep web deve manter um bom antivírus nas máquinas domésticas e evitar logar e-mails em qualquer computador. Ainda mais quando este indivíduo busca desbravar o obscuro abaixo da web que o mundo acessa diariamente através de dispositivos.

As camadas: o que há além da superfície?

A primeira camada da deep web (simple) pode ser acessada pelo navegador comum. É onde o usuário encontra diversos e inúmeros arquivos não indexados pelos buscadores, a exemplo de artigos sobre vírus (quem cria, como dissemina e porquê), matérias e depoimentos sobre hackers e crackers, conteúdo adulto dos mais variados, manuais de suicídio, eutanásia, relatos de doenças fabricadas, documentos que revelam o funcionamento de organizações mafiosas etc. As portas comuns de acesso são o torrent, thepiratebay.com e links compartilhados.

A segunda (charter web) é o máximo a que muita gente – com conhecimento mediano em informática – consegue chegar, já que é difícil e demorado para acessá-la. Nesta camada encontram-se livros proibidos, projetos militares, artigos censurados, arquivos perdidos, confidenciais, downloads de músicas e filmes banidos da internet normal. Nesta área também tem muita pornografia pesada, tais como conteúdo pedófilo (é conhecido na internet com CP – Child Porn), necrofilia, zoofilia e outros tipos. Nesta parte da internet também há vídeos reais de tortura, massacre, assassinatos, compra e vendas de drogas, armas, contratação de matadores, mercenários e grupos de extermínio. Esta parte da web é monitorada pela Polícia Federal e FBI.

Por outro lado, a camada três (mariana’s web) é onde começa a “mitologia virtual”. É que não há como confirmar a veracidade do conteúdo desse nível, já que os relatos dos navegadores dessa terceira camada dizem que 80% das coisas encontradas não passam de lendas urbanas, criadas com o intuito de provocar choque e “trollar” os internautas. O próprio nome desta camada é questionado. Algumas fontes dizem que não quer dizer nada, mas muitos cultuam a lenda de que Mariana foi a primeira hacker a obter acesso aos conteúdos presentes neste setor da deep web.

A quarta camada (virus soup) não tem esse nome à toa. Este é um verdadeiro campo de batalha entre hackers e crackers. É onde todos tentam entrar na última camada, e para isso, impedem outros de o conseguir. Uma verdadeira disputa virtual, onde vírus, invasão cibernética e criptografias das mais variadas acontecem. A quinta e última camada (the primarchy system) é onde todos querem estar para descobrir o grande segredo da internet: o “Sistema Primarca”. Anonimamente descoberto no começo dos anos 2000, esse sistema envia informações inalteráveis e invisíveis para todas as camadas da internet e em todas as redes mundiais de todos os continentes mundiais. Há várias teorias de conspiração relacionadas a essa última camada.

De Foucault a Chris Anderson

Nesta vastidão de conteúdo existe, da forma mais literal conhecida, de tudo um pouco do que é inimaginável. O inimaginável passa pelos horrores mencionados a downloads de discografias, livros, filmes e conteúdo que não é todo mundo que pode pagar. A deep web é o transver da web, tal qual a onomatopeia imagética sugerida pelo filósofo francês Michel Foucault em “Isto Não É Um Cachimbo” (Ceci n’est pas une pipe). A internet está para o quadro assim como a web é o cachimbo e a deep web o que está, mas que não é visto.

De forma simplificada, existem infográficos pela internet que explicam as camadas da deep web usando um iceberg. Porém, faz-se menos inteligível esta representação. Porque embora invisíveis sob as águas, as camadas de gelo de um iceberg são mais estáveis que o conteúdo imprevisível do quadro do surrealista belga René Magritte, que só é “visto” por quem realmente entende ou leu o que escreveu Foucault.

É que a web é maior que a imensidão do mar, acreditam os cientistas da computação. Imagine de um iceberg. A incitação criativa de um quadro modernista que explica a metáfora do que é ou não é um objeto, até o ponto em que é questionado o que é e o que não visto no Google ou no Yahoo, que são universos limitados na própria existência. Ainda que pareçam ilimitados nas interpretações, como o quadro.

Em verdade, a discussão em cima do quadro do Magritte é um excelente gancho para entender, de fato, o que é a deep web, que surge da mesma raiz dos nichos mencionados por Chris Anderson em A Cauda Longa (The long tail). Que nada mais é do que a necessidade dos nichos obterem determinados conteúdos ilegais na deep wep e permitidos (vendidos também) na web.

Mas ainda sobre o processo de “nichificação”, basta lembrar que os pedófilos que acessam a chamada CP não deixam de ser um nicho. Nem aqueles que contratam bonecas sexuais humanas – pessoas que têm os membros amputados para satisfazer o prazer sexual de quem está disposto a pagar – para atrocidades traduzidas em sofrimento. Porém, ao contrário da cauda de Anderson, a grande cauda da deep web não figura em escalas.

No Twitter também há conteúdo da deep web, assim como há em todas as redes sociais em que existe a troca de informações. Afinal, baixar conteúdo de links disponibilizados nestas redes que redirecionam o usuário para conteúdo que não está nos buscadores é, sim, um dos portais de acesso a esta parte obscura, mas nem tão desconhecida assim da internet.

A deep web é vista como algo de outro mundo, ao mesmo tempo em que é acessada por muita gente que nem ao menos sabe onde está encontrando determinado conteúdo, que existe entre as duas primeiras camadas. O acesso a estas camadas profundas – porém rasas – da internet pode ser utilizado tanto para benefício próprio – baixar material que possui custo alto – quanto para prejudicar pessoas. Neste caso, é importante salientar o cuidado redobrado para quem se arrisca a aventurar ser no que está fora do Google, Yahoo e OneDrive.

À luz do Foucault, uma onomatopeia gráfica, e por Anderson, um grande concentrado de nichos clandestinos. Essa é a deep web, sincretizada a conceitos que permitem um melhor entendimento de seu conteúdo.

Por Lucrécio Arrais Neto.

Com informações do Observatório da Imprensa.



Tags deste artigo: publicação código aberto software livre revista espírito livre revista opensource