Nova descoberta pode levar a cura de Alzheimer. Será mesmo?

Tem um errinho grosseiro na notícia: no segundo parágrafo está escrito: “os cientistas dizem que um medicamento feito a partir da substância poderia tratar doenças como Alzheimer, Mal de Parkinson, Doença de Huntington, entre outras”  O problema é que Parkinson e Alzheimer tem mecanismos muito diferentes. Enquanto o Parkinson é causado pela morte seletiva de neurônios da via nigro-estriatal, o Alzheimer é causado pelo “encapamento” dos axônios (a cauda dos neurônios) do hipocampo e do para-hipocampo por um quelante de íons de ferro. Uma doença não tem nada a ver com a outra. É muita promessa para uma droga só. Leia a descoberta aqui

[Voltar]

Antes de mais nada… A verdade!

A Samsung lançou seu relógio “inteligente”, o Samsung Gear, antecipando-se à Apple que, segundo rumores, está preparando o iWatch, mas antes que qualquer das duas tente enganar o usuário leigo dizendo que é a “dona” da ideia, aqui vai a verdade: o relógio inteligente já existe a muito tempo. Um dos pioneiros foi o WatchPad 1.5 da IBM, lançado lá pelo ano 2001, com sistema operacional Linux. Continue lendo

Teste para detectar sinais de câncer no DNA será lançado no Japão

Será que isso funcionará, mesmo? O câncer nem é doença. É um distúrbio do sistema imunológico que deixa de reconhecer as milhares de células anômalas (cancerosas) produzidas todos os dias pelo organismo humano e pode aparecer em qualquer pessoa e também por causas externas, como por exemplo radiação ionizante. Leia mais…

Divergências freiam acordo global para controle da web

As grandes companhias de Internet, com o apoio dos Estados Unidos, conseguiram na semana passada muito do que queriam: grande número de países se recusou a assinar um tratado mundial que, na opinião dos contrários, poderia causar maior controle governamental sobre o conteúdo online e as telecomunicação.

Os Estados Unidos assumiram uma clara posição de defesa à Internet livre –segundo autoridades do país e líderes setoriais– ao recusar até mesmo referências mínimas à Internet na revisão do tratado da União Internacional de Telecomunicações (UIT) e ao convencer dezenas de países a seguir no mesmo caminho.

Mas tanto os profissionais de tecnologia quanto os políticos temem que a Internet continue sob risco de novos controles impostos por diversos países, e alguns deles dizem que a divisão só se agravou durante a conferência de 12 dias da UIT em Dubai e pode acelerar o fim da atual forma da Internet.

“Se a comunidade internacional não consegue chegar a acordo sobre um tratado relativamente simples de telecomunicações, existe o risco de que se desmantele o consenso que existiu até agora sobre a governança pela Icann (que controla o sistema de endereços da Web)”, disse um delegado europeu à Reuters.

“Alguns países claramente pensam que é hora de reconsiderar todo o sistema, e as disputas quanto a isso podem se provar infrutíferas”, acrescentou.

Há cada vez mais países preocupados com os crimes internacionais cibernéticos e o uso por dissidentes de serviços como o Twitter e Facebook, que não estão sujeitos ao controle de autoridades nacionais de telecomunicações.

Muita gente esperava que a UIT fosse o foro adequado para determinar padrões ou pelo menos trocar ideias sobre como enfrentar esses problemas, mas a recusa dos EUA de assinar o tratado pode ter servido para convencer algumas nações de que terão de agir por conta própria, afirmaram alguns delegados.

“Isso pode resultar em fragmentação da Internet porque cada país terá posição própria sobre como lidar com as organizações transnacionais e regulamentará a Internet de maneira diferente”, disse outro delegado europeu, que anonimato.

Sem a cooperação dos EUA e da Europa, “no futuro talvez tenhamos uma Internet fragmentada”, disse o diretor da divisão internacional do Ministério das Telecomunicações e Comunicações de Massa da Rússia, Andrey Mukhanov.

Linha dura na negociação

Com incentivo do Google e outros gigantes do setor, os norte-americanos adotaram uma posição firme contra uma aliança de países que desejavam o direito de saber mais sobre o roteamento de tráfego da Internet e as identidades dos usuários –entre eles a Rússia– e contra países em desenvolvimento que desejavam que os fornecedores de conteúdo pagassem por pelo menos parte dos custos de transmissão.

O Ocidente conseguiu angariar apoio contra a participação da UIT no controle da Internet de um número de países superior ao esperado pelos dirigentes da organização, deixando apenas 89 dos 144 países participantes da conferência dispostos a assinar o tratado de imediato.

Esses países também apoiam uma resolução não compulsória no sentido de que a UIT tenha um papel na regulamentação da Internet, em companhia dos governos nacionais e de organizações do setor privado.

Alguns delegados acusaram os norte-americanos de planejar a rejeição de qualquer tratado e de terem negociado sob falsos pretextos. “Os EUA tinham o plano de diluir ao máximo qualquer que fosse o texto negociado e depois não assinar”, disse o segundo dos delegados europeus.

Outros delegados aliados dos EUA e o porta-voz oficial dos norte-americanos negam firmemente a alegação. “Os EUA mantiveram uma posição firme e coerente”, disse o porta-voz. “No fim das negociações, e só no final, ficou claro que o texto proposto não satisfaria nossas condições”.

http://info.abril.com.br/noticias/internet/divergencias-freiam-acordo-global-para-controle-da-web-17122012-30.shl

[Voltar]

[Dicas-L] Desastres no GNU/Linux

Colaboração: Rubens Queiroz de Almeida

Data de Publicação: 23 de novembro de 2012

Esta semana abordamos diversos tópicos relativos à segurança do usuário root. Sistemas Unix, e consequentemente, sistemas GNU/Linux, possuem a filosofia de pensar que o usuário sabe o que está fazendo. Por exemplo, nenhum dos comandos do sistema solicita confirmação. Se você, como root, digitar:

rm -rf /

Ele cumprirá suas ordens sem a menor hesitação, apagando todo o sistema. Afinal de contas, você sabe o que está fazendo.

Mais tarde, foi introduzido na maior parte dos comandos mais perigosos a diretiva “-i” que sinaliza que as ordens devem ser executadas de forma interativa, ou seja, você precisará fornecer sua autorização a cada passo.

Alguns sistemas criam alias para os comandos mais perigosos, como rm, colocando automaticamente esta diretiva. Administradores mais experientes acham isto um estorvo, e frequementemente desabilitam esta opção.

Mas desastres acontecem, mesmo com os mais experientes e confiantes. Vejamos alguns desastres famosos:

rm -rf / home/usuario

Vejam que interessante, um espaço em branco inserido depois da primeira barra do diretório que se quer remover, fez que com o sistema inteiro fosse apagado. O comando acima remove o diretório raiz (/) e em seguida o diretório home/usuario. Certamente não foi o que se queria.

rm -rf ~ /*.out

Este comando é também clássico. O usuário queria apagar, de seu diretório $HOME, todos os arquivos terminados em .out. Novamente, o espaço em branco fez com que o seu diretório inteiro fosse apagado (~). Melhor ter o backup em dia Smile

E finalmente, quando trabalhando com múltiplas máquinas, você, na pressa, remove um monte de arquivos da máquina errada. Isto é bem mais comum do que se pensa. Vale a pena pensar em um sistema de cores para identificar, sem sombra de dúvida, onde você está. Por exemplo, você pode definir as máquinas de produção com fundo vermelho, as máquinas de teste com fundo azul, e assim por diante. Mas este é um assunto para uma próxima dica.

[Voltar]

[Dicas-L] Caminho absoluto e caminho relativo

Colaboração: Marcelo Akira Inuzuka

Data de Publicação: 27 de novembro de 2012

Na década de 80, a Interface de Linha de Comando (CLI) era bastante popular entre os usuários que utilizavam o Sistema Operacional MS DOS (r). Com a popularização da Interface Gráfica de Usuário (GUI) na década de 90, principalmente através do MS Windows 3.11 (r), a CLI baixou sua popularidade, mas continuou sendo largamente utilizada por profissionais ou usuários avançados de Tecnologia da Informação (TI).

Dou aula em faculdades e tenho percebido que alunos que nasceram depois da década de 90 têm muita dificuldade prática para dominar a CLI. Eles conhecem o conceito de árvores de diretórios (ou pastas), mas têm dificuldades de compreender os conceitos de caminho (path) relativo e caminho absoluto. Com o advento da Internet, essa compreensão se tornou essencial para os novos profissionais de TI (administradores de sistema, desenvolvedores web, etc). Segue a dica…

Todo caminho absoluto começa com uma ‘barra’, por exemplo: /tmp/bzImage, /home/teste/rootfs.img, esta ‘barra’ referencia o diretório raiz (/), a partir do qual, todos caminhos absolutos derivam, formando uma árvore de diretórios.

Todo caminho relativo não contém uma ‘barra’ no início. A referência é geralmente o diretório atual (pwd) do processo sendo executado. Por exemplo, se o diretório atual for o raiz (/), você pode simplesmente executar ls tmp em vez de ls /tmp.

Em caminhos relativos é possível utilizar outros atalhos como:

> til, que referenciam o diretório pessoal. Por exemplo, ls ~/Downloads lista a pasta Downloads da pasta pessoal do usuário atual.
> ponto, que significa o diretório atual. Por exemplo, ./run-app, executa o arquivo run-app que está localizado no diretório atual.
> dois-pontos, que significa o diretório pai. Por exemplo, cd .., muda para o diretório pai.

A vantagem dos caminhos relativos é poder executar comandos mais curtos. Por exemplo, é mais fácil executar o aplicativo run-app a partir do diretório atual com o comando ./run-app do que executá-lo com o comando absoluto /usr/local/bin/run-app.

A vantagem dos caminhos absolutos é poder identificar arquivos – executáveis ou não – independentemente da localização. Por exemplo, você pede para seu amigo novato em CLI enviar uma cópia do arquivo de contas de usuário do sistema operacional para você. Se você disser simplesmente que o arquivo é o passwd, pode ser que ele não consiga localizá-lo ou até envie o arquivo passwd que não é do próprio sistema operacional. Mas se você disser que é o arquivo /etc/passwd, a identificação é precisa e não causará problemas.

Marcelo Akira Inuzuka ministra aulas de Sistemas Operacionais no Instituto de Informática da Universidade Federal de Goiás (INF/UFG). Valoriza a atuação em comunidades de Software Livre no sentido de aprender cada vez com seus pares e colaborar para uma sociedade mais justa e solidária

[Voltar]

Cópia completa do HD – cluster por cluster

Neste artigo vou relatar uma experiência que tive na empresa onde trabalho e como encontrei a saída para o problema. Vou explicar detalhadamente como fazer um backup completo do disco em outro HD, de uma forma tão fácil que dispensa até mesmo montar o outro hd. A cópia é completa, feita cluster por cluster e isso faz com que em caso de problemas, apenas uma troca de HD resolva a situação.

Por: Djair Dutra C. Jr.

Entendendo a situação e a necessidade

No VOL podemos encontrar inúmeros artigos sobre backup e espelhamento. O exemplo que falarei neste artigo não é melhor do que nenhum outro, ele apenas descreve uma situação particular, onde encontrei uma saída rápida e fácil de obter o resultado desejado.

A situação é a seguinte: Tenho um servidor Fedora, no qual roda um sistema gigantesco (infelizmente em Windows) que retém todos os dados de uma rede de concessionárias. O sistema é de difícil instalação e tem uma série de configurações no firewall que são peculiares deste sistema. Só de pensar em instalar este sistema “do zero” ou restaurar uma cópia de segurança, já dá uma dor de cabeça.

Além disso, neste mesmo servidor, temos arquivos usados diariamente por todos os funcionários, como planilhas, pequenos bancos de dados, aplicativos, documentos, etc. Pra completar ainda mais a importância deste servidor, ele autentica todos os usuários da rede e não são poucos.

Um das alternativas que eram usadas quando assumi a manutenção das lojas era o backup em DVD dos dados, das planilhas e dos arquivos de configuração do samba. Tudo bem até o dia que tivemos problema em um HD e pra completar haviam esquecido de gravar o backup no DVD por três dias. Por sorte ainda consegui entrar no HD e cloná-lo para um novo, mas se tivesse que instalar do zero, teria que baixar uma versão do Fedora (que é exigência do sistema), instalar do zero e restaurar os dados. Além disso, deveria descompactar todas as planilhas e colocá-la em seus devidos locais, mas o pior seria a autenticação dos usuários.

Nos últimos dias deste backup, ainda tive que escolher alguns arquivos que não fariam parte do backup, pois um DVD de 8GB já estava pequeno. A situação era assustadora.

Quero enfatizar que, no meu caso trata-se de um backup de um servidor, cujo sistema é cheio de peculiaridades e foi instalado por terceiros. Não há nenhum treinamento ou tutorial informando as configurações necessárias, portanto, estou trabalhando com um servidor do qual não conheço sua estrutura e devo obedecer a padrões, necessidades e configurações estabelecidas por outros administradores de rede.

A solução adotada

Procurei uma solução na qual não fosse necessário conhecer o servidor completamente e que me desse o menor trabalho possível para colocar o sistema no ar novamente em caso de uma pane.

Tive então a idéia de clonar o HD completamente, com suas partições e sistema de arquivos completos. Para implantar esta idéia escolhi o comando dd, por ser simples e fácil.

Coloquei então os dois HDs de 500GB no mesmo servidor, e criei um script para clonar diariamente os dados de um HD para outro. Na hipótese de um problema no HD principal, bastava trocar pelo HD de backup e nada estava perdido, nem mesmo as partições com seus tamanhos e sistemas de arquivo.

Vou demonstrar detalhadamente como fazer este tipo de backup.

Metendo a mão na massa!

Vamos partir do princípio de que você já conectou os dois HDs. Neste exemplo, o HD sata que já está instalado e funcionando é o /dev/sda. Portanto, o segundo HD sata deve ser o /dev/sdb.

Esta alternativa de backup é tão fácil que não é necessário nem montar o segundo HD.

Criando o script

Vamos criar então o script que fará toda a tarefa de backup. Ele deverá ter as linhas abaixo, exatamente como estão:

——————————————-

#!/bin/sh
date >> historico.log && dd if=/dev/sda of=/dev/sdb && date >> historico.log && echo “###########” >> historico.log
——————————————-

“Destroçando” o script

Além de fazer o backup, este script de apenas duas linhas cria um log que guarda um histórico de todos os backups efetuados, com tempo de início e término, sendo ideal para consultas futuras e para o acompanhamento diário.

A primeira linha #!/bin/sh define o interpretador que será chamado. É praticamente padrão para a maior parte dos scripts executáveis.

A segunda linha tem vários comandos juntos.

O comando date >> historico.log grava a data de início do backup no arquivo histórico.log.

Os caracteres && servem para executar o próximo comando somente após terminar o anterior, ou seja, só começar o backup após gravar a data no arquivo.

O comando dd cria uma cópia do HD de origem if=/dev/sda para o HD de destino of=/dev/sdb.

O comando date >> historico.log repetido após a cópia dos HDs, serve para gravar a data de término da cópia.

Considerações finais sobre este backup

Como enfatizei no início, não defendo esta alternativa de backup como a melhor ou muito menos como a única que se adequa a este caso. Esta alternativa foi a que usei em meio a tantas outras opções e sei que sua aplicação só é viável numa situação como a que ilustrei no início. Em outros casos são aconselhados espelhamentos simultâneos, ou apenas backups dos arquivos importantes.

As únicas desvantagens que vejo neste backup são que ela não oferece nenhuma opção de progresso, como uma barra que indique o quanto ainda falta para terminar o processo e a outra é que demora muito. Um HD sata de 80GB demora 2 horas.

A grande vantagem é que a cópia é feita idêntica ao HD de origem, com sistema de arquivos, partições, etc. Em caso de um problema, basta substituir um HD pelo outro e pronto. As outras vantagens são a facilidade, afinal, não precisa nem montar a partição do novo HD e nem reinstalar todo o sistema com métodos de espelhamentos complexos, além de ser tudo automatizado, sem a possibilidade de esquecimentos dos usuários.

Vale lembrar também, que pelo fato da cópia ser feita cluster por cluster, o HD de destino deve ser maior ou de mesmo tamanho do HD de origem.

Agradeço a quem puder contribuir com relatos de experiências próprias, ou com outras alternativas a esta situação. Agradeço também a quem puder enriquecer este artigo com dicas, comentários, críticas ou sugestões.

O comando echo “###########” >> historico.log serve apenas para colocar caracteres delimitadores para separar as datas de um dia para outro. Pode não parecer tão útil, mas quando tivermos um arquivo com mais de um mês de históricos, estes caracteres farão diferença no visual da análise.

Transformando o script em executável

Para que este script possa ser executado é necessária a linha de comando abaixo. Ela não só transforma em executável, como dá permissão para qualquer usuário executar o arquivo.

$ chmod a=rwx nome_do_script

Agendando a execução diária do script

No meu caso, usei um agendamento diário, de madrugada, onde não havia nenhuma atividade na empresa. Agendei para as 23:00 todos os dias.

Para abrir o crontab para edição use:

$ crontab -e

Para agendar a execução digite a seguinte linha no crontab:

0 23 * * * /pasta/nome_do_script

Para sair do crontab pressione a tecla ESC e depois digite :x e pressione ENTER. Após isso o agendamento já está pronto.

[Voltar]