30 agosto 2011

Students to Business - S2B

O programa Students to Business é uma iniciativa da Microsoft, seus parceiros e das principais universidades do país.
S2B - Tem o objetivo de capacitar estudantes nas áreas de TI e oferecer oportunidades de emprego, gratuitamente.
Em Alagoas a Estacio FAL é parceira do programa, as inscrições vão até o dia 18/09 e podem ser feitas seguindo o link a baixo:
http://www.programas2b.com.br/

Manual do Candidato

Cronograma:

10 maio 2011

CONSEGI 2011




Começa amanha o IV Congresso Internacional de Software Livre e Governo Eletrônico, O CONSEGI 2011, vai do dia 11 a 13 de maio.

O evento é bancado pelo SERPRO e terá como tema principal o conceito de “Dados Abertos” (open data). Assunto novo dentro da tecnologia, segundo o W3C, dados governamentais abertos são a “disponibilização de informações governamentais representadas em formato aberto e acessível de tal modo que possam ser reutilizadas, misturadas com informações de outras fontes, gerando novos significados”.

Ainda serão abordados diversos assuntos, nos seguintes eixos:

1. Dados Abertos, e-Democracia e Gestão de Conhecimento Governamental;

2. Infraestrutura de Serviços de TIC;

3. Governança, Gestão e Estratégia de TIC;

4. Ecossistema do Software Livre: comunidades e colaboração;

5. Sistemas e Aplicações livres: desenvolvimento e uso;

6. Multimídia, Mobilidade e Meios Convergentes;

7. Padrões, Interoperabilidade e Políticas de Desenvolvimento Tecnológico; e

8. Desenvolvimento Social, Educação e Inclusão Digital.

Se você não estiver em Brasilia, que é o meu caso, dá para assistir algumas palestras pela web, o evento terá cobertura ao vivo.

http://www.consegi.gov.br/
http://blog.consegi.gov.br/

28 abril 2011

Aceleradores WAN

Pessoal, hoje vamos falar sobre aceleradores WAN, termo relativamente novo, mas que já está sendo utilizado em muitas empresas.

Mas o que danado é esse tal de acelerador WAN, como ele funciona? Porque não inventaram isso na época das conexões discadas 56KbpsV90, eu era fã do Metallica e demorava uma semana para baixar um vídeo clipe. L

Nos dias atuais já podemos ver redes locais a 10Gbps o que é uma maravilha, nas ultimas empresas por onde passei isso já era realidade, ai imaginemos toda a rede rodando em Giga, quando vai sair para internet num link de 34Mbps, caríssimo por sinal e se for redundante nem se fala, vem à decepção, fica nítido o gargalo e com tantos serviços disponibilizados on-line estamos cada vez mais dependentes da WAN e ai como resolver esse problema sem onerar o orçamento da TI?

Eis ai que surge o Acelerador de WAN, será q ele faz mágica? Na verdade sabemos que o protocolo TCP/IP, padrão utilizado na internet, é muito veinho já tem mais de 20 anos. O problema é que na época da criação do TCP/IP a qualidade das redes, enlaces, era bem inferior ao que temos hoje, com isso existia toda uma preocupação com controle de erro, perda de informação, retransmissão, atenuação e etc. e tudo isso faz o cabeçalho TCP crescer e a rede passa a trafegar muita informação secundária ao invés do que realmente interessa para a empresa.

O que o Acelerador de WAN faz é atuar na compressão de pacotes IP, a grosso modo fazendo uma redução do cabeçalho do pacote IP e conseqüentemente do seu payload, atua também na utilização de algoritmos para selecionar e manter um cache de acordo com o padrão de utilização da WAN e faz uso de técnicas para reduzir a latência do link e o envio de pacotes ACKs.

Como o Acelerador WAN altera o cabeçalho IP se faz necessário à existência de um equipamento desse em cada ponta da rede, ou seja, uma conexão ponto a ponto, já que os roteadores convencionais não “entenderão” os pacotes IP modificados.

Algumas das técnicas utilizadas na maioria dos Aceleradores WAN:

Payload Compression (IPComp)à Reduz o tamanho do pacote IP através de um método de compressão sem perdas. O pacote IP comprimido é encapsulado, e tem seu cabeçalho IP alterado, é inserido um novo cabeçalho o IPComp, por isso é necessária uma conexão ponto a ponto entre os aceleradores de WAN para possibilitar o entendimento dessa compressão.

Router Transparecy Mode (RTM) à Já nessa técnica o cabeçalho IP, TCP e UDP são mantidos e a compactação ocorre apenas no payload do pacote. Está técnica gera um pacote um pouco maior que o IPComp, porém tem a vantagem de manter total compatibilidade com os roteadores na rede.

Tecnologia de Caching à Este método faz uso de vários algoritmos no sentido de identificar o tráfego mais comum e fazer cache desses pacotes evitando assim a retransmissão, podemos dizer que é parecido com um cache proxy, só que bem mais sofisticado.

Esta técnica pode funcionar em combinação com a IPComp ou a RTM.

Por fim vale citar o SCPS, Space Communications Protocol Standardsà esse é chique teve seu desenvolvimento iniciado na NASA. Basicamente ele trabalha na diminuição da latência do link, aumentando o tamanho da janela de transmissão que no TCP/IP é de 64KB, numa rede local isso não gera problemas até porque as estações geralmente possuem janelas de 8KB – 16KB e a velocidade de comunicação entre os nós na rede local é muito boa, já na WAN com um link de 2Mbps com um tempo de 540 milissegundos entre a ida e a volta do pacote e utilizando uma janela padrão de 64KB, vai resultar numa importante latência e que vai reduzir a utilização do link em 50%. Então o SCPS verifica o link disponível e altera o tamanho dessa janela de transmissão de forma que o link possa ser totalmente utilizado e nesse mesmo tempo de 540 milissegundos passará bem mais que 64KB de informação.

Este post foi incentivado de uma recente discussão aqui no meu trabalho, sobre o funcionamento de um appliance Acelerador de WAN e ai gerou bastante material.

Tive também como fonte de pesquisa o site iMasters dois posts do Douglas Falsarella, que os links estão abaixo, tem tudo isso que eu tentei resumir e com figurinhas o que é ainda melhor.

http://imasters.com.br/artigo/12399/redes-e-servidores/aceleracao-wan-tendencia-que-veio-pra-ficar

http://imasters.com.br/artigo/12640/redes-e-servidores/tecnologias-utilizadas-em-aceleradores-wan

25 abril 2011

Cloud Computing

E ae galera, como post inaugural eu resolvi falar de Computação na Nuvem. Acho que vocês já estão de saco cheio desse tema kkkk, mas existem também os que ainda estão iniciando as suas pesquisas. Então vamos debater esse assunto com a proposta de desmistificar de uma vez o que vem a ser essa tal de nuvem, claro que eu não vou falar tudo, até porque eu sei muito pouco do assunto, então conto com a colaboração dos amigos para complementar o post.



Pois bem, ultimamente temos ouvido muito sobre o termo Cloud Computing, ou computação nas nuvens, os dinossauros da TIC, aquela galera mais velha do tempo dos Main Frame, que vieram antes do PC 286 e 386, detalhe que eu tive uma carroça dessas, insistem em dizer que estamos retrocedendo que esse conceito de Cloud Computing já existiu e que nós estamos voltando ao que era antes.



Mas como era no tempo do Main frame? Como eu não vivi nessa época vou tentar descrever de acordo com pesquisas que realizei, Main Frame era um computador gigante poderoso e caríssimo, nele era centralizado todo o poder de processamento das empresas e universidades, os operadores destes main frames, os usuários, acessavam este computador através de terminais burros, ou seja, sem poder de processamento, que era simplesmente uma tela preta com letrinhas verdes e um teclado, como no filme Matrix, só que bem mais lento claro... O uso dessa máquina era racionado e compartilhado pelos usuários e inclusive nas rotinas de processamento.



Para não ser tão radical com os vovôs da TIC, bem que existe uma semelhança no conceito, mas não há duvida que as possiblidades hoje são infinitamente maiores. A Computação nas nuvens vai novamente centralizar todo o poder de processamento não só de uma empresa, mas sim de várias, ela propõe vender infraestrutura de TIC como serviço, é meus caros sé as vagas na área de infraestrutura de TIC já são em escala bem menor do que as vagas para área de desenvolvimento agora o senário vai ficar ainda mais restrito, mas sempre haverá vagas bem remuneradas para os bons profissionais.



Para quem pensa que Cloud Computing vai demorar a chegar ao Brasil, fiquem sabendo que já é uma realidade no nosso pais e várias empresas já utilizam computação em nuvem inclusive os governos estaduais e o governo Federal, se brincar até você mesmo deve usar, por exemplo, se você usa o Google docs, Office live, Ubuntu one, Skydrive, facebook/Orkut para gerenciar e armazenar suas fotos e etc parabéns, você já é usuário de serviços na nuvem. No Brasil já existem algumas empresas, como RedeHost, Locaweb, CentralServer, Tecla e etc, oferecendo infraestrutura de TIC como serviço e a preços bastantes convidativos, essas empresas oferecem pacotes que incluem desde o servidor utilizado, quantidade de núcleos do processador, memória RAM, armazenamento, largura de banda e quantidade de tráfego para a internet e etc. Existe uma matéria que compara os serviços oferecidos por esses provedores na Linux Magazine de ago/2010, é muito legal vale a pena dar uma olhada.

Em breve a nuvem deve abrigar não só os sistemas corporativos como também os desktops dos usuários, no futuro teremos nossos desktops na nuvem e acessíveis de qualquer lugar, através de um dispositivo móvel barato, pois será necessário pouco poder de processamento e uma conexão com a internet de qualidade é claro. Claro não... Vou ficar devendo. :)

Título do Blog

É bem verdade que o título do blog é um "plágio" do slogan do Ubuntu, mas é verdade também que a proposta deste blog é bem parecida com a do Ubuntu, a de tratar assuntos de TIC de forma fácil e simples possibilitando o melhor entendimento da comunidade e democratizando o acesso ao conteúdo, então acredito que ninguém vai ser contra, não é?