Há muitas coisas memoráveis ??sobre Claude Shannon.
Aqueles que trabalharam com ele no AT&T Bell Laboratories, em Nova York, Estados Unidos, lembram-se dele andando pelos corredores em um monociclo enquanto fazia malabarismos com quatro bolas.
Seus colegas do Instituto de Tecnologia de Massachusetts (MIT) disseram que ele tinha em sua mesa um gadget de sua própria criação chamado "Ultimate Machine", uma caixa com um botão que, ao ser ligado, uma mão mecânica saía e desligava.
Sem esquecer, claro, que aos 21 anos escreveu "a tese de mestrado mais importante de todos os tempos", lançando as bases para todos os futuros computadores digitais.
Nem que aos 32 anos tenha publicado o que a Scientific American chamou de "a Carta Magna da era da informação", já que inventou o bit, e explicou como comprimir e enviar qualquer mensagem com perfeita precisão.
É por isso que muitos, ao se referirem a ele, dizem que Shannon inventou o futuro.
Ou melhor, o presente em que vivemos.
E não estão exagerando: sua contribuição deu a arquitetura intelectual da Internet e da era digital.
"Havia muitos no Bell Labs e no MIT que compararam a intuição de Shannon com a de Einstein. Outros acharam que a comparação era injusta... injusta com Shannon", segundo o autor do livro The Fortune Formula, William Poundstone.
No entanto, seu nome não transcendeu tanto quanto o de outros cientistas famosos de sua época.
A razão?
"Porque era assim que ele queria", disse Rob Goodman, coautor da biografia de Shannon, A Mind at Play. "Ele se distanciou conscientemente da fama."
Mas também porque o seu legado é relativamente intangível.
"É fácil imaginar um computador, mas é mais difícil imaginar o salto criativo que demonstrou que interruptores ou circuitos poderiam avaliar declarações lógicas", disse Goodman.
"É fácil imaginar um smartphone, mas é mais difícil imaginar as ideias sobre a natureza da informação e da comunicação que tornaram esse smartphone possível.
"Shannon trabalhou nesse nível fundamental e intangível, e é por isso que ele é reverenciado entre os especialistas, mas um tanto invisível para o público em geral."
Depois de se formar na Universidade de Michigan em 1936, Shannon trabalhou como assistente de laboratório do pioneiro da computação Vannevar Bush, vice-presidente e reitor de engenharia do MIT.
Ele costumava auxiliar os cientistas visitantes a usar o "analisador diferencial", o computador mais poderoso do mundo na época, criado por Bush.
A enorme máquina analógica usava um sistema preciso de eixos, engrenagens, rodas e discos para resolver equações de cálculo.
Para resolver cada problema, todo o mecanismo teve que ser reorganizado para que seus movimentos correspondessem à equação apropriada.
Um pesadelo?
Não para Shannon.
Desde criança, além de se deleitar em resolver problemas matemáticos que sua irmã lhe dava, ele se divertia consertando rádios, construindo brinquedos e até transformou uma cerca de arame farpado em linha telegráfica para se comunicar com um amigo.
Portanto, para Shannon, passar horas manipulando aquele mecanismo complexo foi um prazer.
E, ao fazer isso, as engrenagens de sua mente funcionavam muito mais rápido do que as da máquina, como evidenciado por sua tese de mestrado, Symbolic Analysis of Relay and Switching Circuits (Uma análise simbólica de relés e circuitos de comutação).
Em Michigan, ele se formou engenheiro elétrico e matemático e fez um curso de filosofia no qual conheceu o trabalho do filósofo do século XIX, George Boole.
Tudo isso se concretizou quando ele observou que a relação entre interruptores elétricos e corrente poderia imitar o processo intelectual da lógica simbólica e da matemática.
As chaves do circuito de controle, que podiam abrir e fechar automaticamente, correspondiam à lógica de escolha binária, na qual uma afirmação é verdadeira ou falsa.
Na álgebra booleana, as declarações recebem valores: 1 para declarações verdadeiras e 0 para declarações falsas.
Com base nessa teoria, Shannon aplicou o valor "1" aos circuitos abertos e o valor "0" aos fechados.
Além disso, na álgebra booleana, as declarações podem ser consideradas em conjunto com conjunções como "e", "não" e "ou".
Assim, por exemplo, algo como "se o seu alarme tocar de manhã e não for fim de semana, então você tem que ir trabalhar" seria o equivalente linguístico de "se o número X não for igual ao número Y, então execute a operação Z" no circuito de comutação.
Um exemplo de quão fundamental foi sua tese é que hoje podemos facilmente reconhecer que se trata de programar um computador.
Então era uma nova noção que, quando posta em prática mais tarde, surpreendeu: mostrava que as máquinas conseguiam decidir o que fazer por si mesmas... como os humanos.
Assim, escreveu Shannon, "é possível realizar operações matemáticas complexas por meio de circuitos de comutação", pois eles poderiam adotar cursos de ação alternativos dependendo das circunstâncias.
Com esse método simples e brilhante emitiu "a certidão de nascimento da revolução digital", declarou Alain Vignes no seu livro Silicon, From Sand to Chips.
Shannon teve a ideia crucial de organizar as operações internas de um computador moderno quase uma década antes de eles existirem.
Mas quando falou com o ex-editor da revista Spectrum, John Horgan, em 1982, ele minimizou o fato.
"Acontece que ninguém mais estava familiarizado com esses dois campos ao mesmo tempo", disse ele, acrescentando: "Sempre gostei dessa palavra, 'booleano'".
"Eu me diverti mais fazendo isso do que qualquer outra coisa na minha vida", disse ele a outro repórter.
Sob a proteção de Vannevar Bush, Shannon decidiu complementar seu mestrado com um doutorado.
Bush achava que a especialização em um único assunto sufocava uma mente brilhante, por isso o aconselhou a fazer sua tese de doutorado em genética, segundo a revista MIT Technology Review.
Você brilharia mesmo sem conhecimento prévio na área?
Ao concluí-lo, Henry Phillips, chefe do Departamento de Matemática do MIT, escreveu que Shannon poderia "fazer pesquisas de primeira classe em qualquer campo em que se interessasse".
Pouco após finalizar o doutorado, Shannon foi trabalhar no AT&T Bell Laboratories.
Corria o ano de 1940 e a Europa estava à sombra da Segunda Guerra Mundial, um conflito no qual os Estados Unidos não queriam estar diretamente envolvidos, mas talvez, como aconteceu, não pudessem evitar.
Assim, Shannon imediatamente começou a trabalhar em projetos militares, como controle de fogo antiaéreo e criação e quebra de códigos, incluindo um que Churchill e Roosevelt usaram para conferências transoceânicas.
E conheceu quem se tornaria sua segunda esposa, Mary Elizabeth "Betty" Moore, uma das "computadores" do Bell Labs.
Foi assim que foram chamadas as pessoas, muitas vezes mulheres, que usavam e operavam as máquinas da unidade de TI para encontrar soluções matemáticas através do que hoje chamamos de programação.
Betty era analista numérica e tornou-se conselheira de Shannon em questões matemáticas.
Enquanto trabalhava na corrida da guerra, Shannon escreveu A Mathematical Theory of Cryptography, concluído em 1945, mas publicado somente em 1949.
Os especialistas consideram que com ele transformou a criptografia de arte em ciência.
Nesse trabalho, Shannon explorou, entre outras coisas, a natureza e a redundância da linguagem, temas que revisitaria em sua obra-prima Uma Teoria Matemática da Comunicação, um trabalho que ele vinha formulando simultaneamente, nas horas vagas.
Shannon percebeu que, assim como os códigos podiam proteger as informações de olhares indiscretos, também podiam protegê-las de ruídos ou distorções quando transmitidas, seja devido à estática ou a outras formas de interferência.
Além disso, esses códigos poderiam ser usados ??para empacotar informações de forma mais eficiente, de modo que uma maior quantidade delas pudesse ser transmitida por telégrafo, rádio, televisão ou telefone.
Ele entendeu que o significado semântico de uma mensagem era irrelevante para a sua transmissão: não importava o que dissesse, a questão era como quantificar a informação.
Para isso, ele definiu as unidades de informação, os menores fragmentos possíveis, e os chamou de "bits" (ou "bytes"), termo que foi sugerido por seu colega John Tukey como abreviatura de 'dígito binário'.
Para expressar informações em um bit, seria usado 1 ou 0.
Sequências desses bits poderiam ser usadas para codificar qualquer mensagem, descrevendo tudo, desde palavras até imagens, músicas, vídeos e os mais sofisticados softwares de jogos.
Embora essas rajadas de bits sofressem dos mesmos problemas que um sinal analógico, nomeadamente desvanecimento e ruído, o digital tinha uma vantagem: os 0s e 1s eram estados tão claramente diferentes que, mesmo após deterioração, o seu estado original poderia ser reconstruído muito mais tarde.
Essas ideias e outras contidas em sua Teoria Matemática da Comunicação, como o que ele chamou de "teorema fundamental" da teoria da informação, eram proféticas.
Um conceito radical que alteraria para sempre a comunicação eletrônica.
Shannon, entretanto, não teve pressa em publicar.
"Fui mais motivado pela curiosidade", explicou ele em uma entrevista à revista Omni em 1987, acrescentando que o processo de escrever para publicação foi "doloroso".
Ele finalmente superou sua relutância e seu artigo pioneiro apareceu no Bell System Technical Journal em 1948.
O efeito foi imediato e eletrizante.
"Foi como um raio inesperado", lembra John Pierce, um dos melhores amigos de Shannon no Bell Labs.
A revista Fortune, por exemplo, chamou de "uma importante teoria científica que poderia alterar profunda e rapidamente a visão de mundo do homem".
Para Warren Weaver, diretor da Divisão de Ciências Naturais da Fundação Rockefeller, a teoria abrangia "todos os procedimentos pelos quais uma mente pode afetar outra", incluindo "não apenas a linguagem escrita e oral, mas também a música, as artes pictóricas, o teatro, o balé e, na verdade, todo o comportamento humano".
Na verdade, a teoria de Shannon cativou um público muito mais vasto do que aquele a que se destinava.
Linguistas, psicólogos, economistas, biólogos e artistas tentaram fundir a teoria de Shannon com as suas disciplinas.
À medida que a popularidade crescia, Shannon começou a se preocupar com o fato de suas ideias estarem sendo usadas indiscriminadamente e, portanto, perdendo o foco e o significado.
Em retrospectiva, não havia razão para temer: a maioria das aplicações da sua teoria a outras disciplinas, como a biologia, a neurociência ou a análise de redes sociais, foram sólidas e muito valiosas.
Seu trabalho foi tão revolucionário e geral que seria usado em uma infinidade de campos, desde a Internet até a informação genética no DNA, embora ele o tenha formulado décadas antes da existência da teia ou da descoberta da dupla hélice.
De qualquer forma, a preocupação não durou muito.
À medida que a comunidade acadêmica continuava a digerir o impacto da teoria da informação, os interesses de Shannon mudaram.
Ele não era apenas uma mente teórica brilhante, mas também uma mente extraordinariamente engraçada, prática e inventiva, observa Jimmy Soni, coautor de A Mind at Play.
Assim, ele se dedicou mais plenamente a algo que sempre o fascinou.
Durante grande parte da década de 1950, Shannon passou seus dias no laboratório sonhando e depois construindo dispositivos engenhosos.
Alguns acabaram sendo protótipos do que hoje é chamado de inteligência artificial.
Entre eles, o famoso Teseu, um rato que conseguia resolver um labirinto por tentativa e erro. Além disso, ele poderia lembrar a solução e também esquecê-la caso a situação mudasse e a solução não fosse mais aplicável.
Ou a máquina que "lê mentes": com duas luzes e um botão. O jogador adivinha em voz alta se a engenhoca acenderia a luz esquerda ou direita, apertou o botão e uma das duas luzes acendeu.
O sucesso da máquina dependia do registro do padrão.
Mas sua motivação não era prática.
"Faço o que é natural para mim e o lucro não é meu objetivo principal. Gosto de resolver novos problemas o tempo todo", explicou certa vez.
"Fico me perguntando: é possível criar uma máquina para fazer isso? Você pode provar esse teorema? Esses são os tipos de problemas que resolvo. Não porque isso fará algo útil."
E isso estava bem para seu chefe, Henry Pollak, diretor da divisão de matemática do Bell Labs, porque Shannon "conquistara o direito de ser improdutivo".
Pouco após publicar sua teoria, Shannon rejeitou quase todos os numerosos convites para dar palestras ou entrevistas.
Ele não queria ser uma celebridade.
Mais tarde, começou a se afastar não só dos olhos do público, mas também da comunidade científica, preocupando os seus colegas do MIT, que o contrataram em 1958.
"Ele escrevia lindos artigos, quando escrevia, e dava lindas palestras, quando dava uma palestra. Mas ele odiava fazer isso", lembrou o teórico da informação Robert Fano em conversa com o MIT Technology Review.
Ele continuou, porém, inventando aparelhos, como seu THROBAC, uma calculadora que usava algarismos romanos para todos os cálculos, e um laptop para vencer a roleta nos cassinos.
E aventurou-se na poesia com uma homenagem ao cubo de Rubik, intitulada "Uma rubrica sobre as cúbicas de Rubik".
"Passo muito tempo com coisas totalmente inúteis", disse ele a Horgan.
E outros mais úteis: ele desenvolveu vários modelos matemáticos para prever o desempenho das ações e os testou com sucesso no mercado de ações.
No entanto, embora desse tudo de si quando colegas ou alunos o consultavam, muitas vezes passava o tempo trancado no escritório e, em meados da década de 1960, parou de lecionar.
Sua aposentadoria oficial foi em 1978, e Shannon foi feliz para sua Entropy House, como ele chamava sua casa nos arredores de Boston, onde tinha sua sala de brinquedos.
Sua engenhosidade não diminuiu: "Ele ainda construía coisas!", lembrou sua esposa Betty ao falar ao MIT Technology Review.
"Um deles era uma figura de WC Fields quicando três bolas em um tambor. Fez um barulho tremendo!"
A lista de suas criações é extensa.
Além de uma variedade de máquinas projetadas para jogar jogos abstratos, como o hexadecimal e um robô que resolve o Cubo de Rubik, ele fez uma trombeta que lança chamas, um Frisbee movido a foguete, sapatos gigantes de isopor para andar sobre a água de um lago próximo. E muitos monociclos, em todas as suas variantes: um sem assento; outro sem pedais; um construído para dois; outro com roda quadrada.
Ele raramente era visto em público, para desgosto de seus admiradores.
Mas em 1985, incentivado por Betty, ele fez uma aparição inesperada no Simpósio Internacional de Teoria da Informação em Brighton, Inglaterra.
"Foi como se Newton tivesse aparecido numa conferência de física", disse o presidente do simpósio, Robert J. McEliece.
Nesse mesmo ano, infelizmente, ele e Betty começaram a notar certos lapsos de memória e, em 1993, foi confirmado que ele sofria do mal de Alzheimer.
A família o colocou em uma casa de repouso onde ele morreu em 2001.
"Claude fez tanto para tornar possível a tecnologia moderna que é difícil saber por onde começar e onde terminar", disse o eminente engenheiro Robert G. Gallager, que trabalhou com Shannon na década de 1960.
"Ele tinha uma clareza de visão incrível. Einstein também tinha: aquela capacidade de pegar um problema complicado e encontrar a maneira certa de analisá-lo, de modo que as coisas se tornassem muito simples."
Fonte: correiobraziliense
Utilizamos cookies próprios e de terceiros para o correto funcionamento e visualização do site pelo utilizador, bem como para a recolha de estatísticas sobre a sua utilização.