As tecnologias de informação (TI) competem por existir num
mercado bravo, implacável e extremamente dinâmico. A história está repleta de
casos de tecnologias que foram muito importantes em uma certa época, mas que
foram perdendo força até a extinção ou próximo disso. O profissional de TI
prudente deve viver especulando o ambiente futuro, cuidando sempre de sua
empregabilidade, de forma a decidir da melhor forma possível a prioridade do
que se vai estudar, e consequentemente o que se vai ignorar. Conheço vários
casos de pessoas que tornaram-se especialistas numa tecnologia que não
interessa mais, e passaram de uma situação em que eram valorizados
profissionalmente e salarialmente para outra bem diferente. Essas coisas
acontecem com o mesmo dinamismo do mercado de TI, ou seja, num tempo comparável
ao que a CPU do seu computador leva para somar números em ponto flutuante.
Um assunto de interesse especial é especular sobre o futuro
do Mainframe (também chamado de computador de grande porte). Num resumo
brevíssimo da história de TI, pode-se dizer que a humanidade não tinha
computadores minimamente decentes até meados da segunda guerra mundial. Com o
fim dessa e o início do período de guerra fria, houve vários avanços na
computação digital. As primeiras gerações de computação usavam linguagem de
máquina e assembler, o que é extremamente complexo. A primeira linguagem de
programação de terceira geração foi FORTRAN, em 1957, com ênfase em computação
científica, e usada até hoje. A segunda linguagem de computação inventada foi o
COBOL, em 1959, com ênfase em computação comercial, e também usada até hoje.
Um nicho em que se encontra facilmente hoje em dia o uso de
COBOL e Mainframe é no setor bancário. Claro que todas as tecnologias evoluíram
desde sua criação. A versão atual dos Mainframes e do COBOL é baseada na sua
própria história, mas adaptou-se para servir a quem lhe contrata. Uma qualidade
que o Mainframe provê para seus clientes é uma excelente robustez (“robustez 5
noves”, isso é, 99,999% de tempo no ar, o que permite a no máximo 5 minutos
fora do ar por ano). Outra qualidade do Mainframe é sua excelente capacidade de
processamento, que permite dar conta de um número gigantesco de transações por
segundo. Mas essas qualidades são entregues com alguns problemas. Um deles é o
preço, que é bem expressivo, e transforma-se num custo operacional para o
cliente, que compreensivelmente está sempre pensando em formas de reduzi-los.
Outro problema mais sutil é a confiança que um cliente de Mainframe tem de que
permanecerá conseguindo contratar profissionais para manter seu processamento
funcionando. Esse segundo problema decorre do fato de que com o surgimento da
microinformática no final da década de 1970, e o crescimento explosivo de sua
utilização, a nova geração quase sempre confunde computação com
microinformática e ignora o Mainframe. O uso generalizado de cloud computing,
que é em geral feito com servidores Linux instanciados na quantidade que se
deseja para atender necessidade de processamento que se tem, fez mais uma vez a
nova geração distanciar-se do Mainframe, pois a resolução de grandes problemas
de TI é feita com uso massivo de microinformática.
Fazem alguns anos, eu fui chamado para conversar com o setor
de RH da Stefanini (uma grande empresa de serviço de software, com atuação no
Rio de Janeiro e clientes em vários países). A chefe do RH reconhecia que nós
da UFRJ formávamos bons profissionais, e nos chamou para ajudar a resolver um
problema específico: eles precisavam urgentemente de gente com conhecimento de
COBOL e Mainframe. Queriam que montássemos um curso extra desse assunto. Eu
retruquei que reconhecia o problema deles, mas que não é muito simples
convencer a nova geração a estudar isso (e nem a nós professores a montar
cursos desse assunto). Argumentei que a verdadeira necessidade da Stefanini é o
que o mercado inteiro precisa: uma solução para o grave problema de o que fazer
com os Mainframes. Esse problema é muito sério, pois não se consegue mudar a
cultura rapidamente. Mas o tempo segue indo para frente, com os profissionais
de COBOL aumentando de idade e sem haver quase ninguém da nova geração para
repô-los. Eu propus trabalhar junto com a Stefanini num projeto que ajudasse a
se produzir uma solução geral e decente para a substituição dos Mainframes por
outra coisa. Mas como eles apenas queriam um curso de COBOL, nossa conversa
acabou sem nenhuma consequência. E o problema de o que fazer com os Mainframes
segue aumentando sua agudez e gritando por uma solução.
Com o surgimento da tecnologia de Big Data, facilitou-se
ainda mais a transformação de um conjunto de computadores (em geral Linux) em
um cluster. Agrupando os computadores com software de Big Data (e.g. Spark),
consegue-se 2 qualidades muito desejáveis: robustez (pois no caso de um
computador falhar o cluster segue trabalhando), e desempenho (pois o
paralelismo do Big Data faz aumentar muito a capacidade de processamento do
cluster). Essas duas qualidades são justamente o diferencial que os Mainframes
sustentam na hora de serem vendidos. Considerando que com o Big Data se
consegue finalmente produzir com microinformática as qualidades do Mainframe,
surge então a pergunta: será que finalmente conseguimos encontrar uma forma de
fazer a microinformática substituir o Mainframe? Antes de ficar animado em
demasia é bom lembrar que já se tentou antes substituir o uso de Mainframe, e
há casos antológicos de fracasso. Um dos mais citados é a falência do Banco
Bamerindus. O leitor interessado pode procurar no Google por “bamerindus Mainframe
fracasso” e verá várias histórias. Além disso, deve-se sempre registrar o fato
de que Big Data não é uma tecnologia de aceleração computacional de aplicação
genérica. Os problemas de TI que permitem tirar proveito das qualidades
especiais da arquitetura Big Data devem permitir que os dados fiquem
armazenados em HDFS, por exemplo.
Uma empresa ou entidade que hoje está usando Mainframe, muito
compreensivelmente, deve olhar com suspeição para um projeto de se implantar
Big Data para substituir o Mainframe. Um roteiro prudente para o gestor de TI é
o de definir experiências e provas de conceito para serem feitas com tecnologia
de Big Data, e verificar na prática o tempo que leva uma aplicação para ser
desenvolvida e mantida, e o desempenho e a robustez do serviço quando colocado
em produção. É por provar-se viável com experiências práticas que o Big Data
poderá abocanhar o mercado. Há um valor adicional no uso de Big Data: trata-se
de uma tecnologia open-source, em oposição à tecnologia dos Mainframes, que são
tecnologias proprietárias. O cliente pode avaliar por suas próprias
perspectivas qual a qualidade e preço do serviço de TI quando é baseado em
tecnologias proprietárias, em comparação o que é baseado em tecnologias
open-source e padrões abertos. Muita gente tem verificado que essa última
abordagem entrega serviço melhor e mais barato. Além da perspectiva do cliente,
há também a perspectiva da nação Brasileira. Um projeto de TI baseado em
solução proprietária produz um fluxo de dinheiro do Brasil para o local onde
moram os proprietários das empresas donas das licenças (muitos moram nos EUA).
Essa drenagem de recursos empobrece nossa sociedade. Alternativamente, um
projeto de TI baseado em qualquer alternativa open-source (inclusive Big Data)
faz o cliente pagar salários e impostos dentro do Brasil, o que irriga e faz
aumentar nossa economia local.
Em resumo: A análise do ambiente permite especular que
veremos cada vez mais casos de Big Data substituindo usos tradicionais de Mainframe.
Nesse jogo, vão ganhar os que souberem de fato desenvolver aplicações Big Data,
pois esses são os que vão ganhar os novos contratos. Os usuários e consumidores
de serviços de TI vão ganhar também, pois vão livrar-se de hardware e software
proprietário, e passar a resolver seus problemas com hardware de prateleira e
software básico open-source, o que gerará mais flexibilidade e menor custo. As
universidades, escolas de TI e estudantes também vão ganhar, pois poderão usar
a melhor tecnologia do mundo sem maiores dificuldades, para seus testes e
pesquisas. Pelo mesmo motivo, ganharão também os empreendedores inovadores. Vai
ganhar a sociedade brasileira como um todo, pois se deixará de fazer fluir
nosso dinheiro para o exterior, em licenças de software. Vão perder os que
vendem soluções proprietárias baseadas em Mainframe, que verão esse mercado
diminuir (a menos que evoluam seu produto, e entreguem alguma qualidade
exclusiva e útil).
--------------------------------------------------------------------------------
Sergio
Barbosa Villas-Boas (sbVB), Ph.D.
software development, Big Data,
cloud, mobile, IoT, HPC, optimization
sbvillasboas@gmail.com,
sbvb@poli.ufrj.br
Skype: sbvbsbvb
http://www.sbVB.com.br
https://www.linkedin.com/in/sbvbsbvb
+55-21-97699-1337