segunda-feira, 15 de agosto de 2011

Introdução

         Neste Blog você vai conhecer um pouco mais sobre as maiores invenções e inventores dos séculos XIX, XX e XXI.
         Você ficará por dentro das novidades do mundo tecnológico e também descobrirá invenções de séculos passados que ainda hoje são comentadas e de grande importância nos dias atuais.
         De pequenas a grandes as invenções são inúmeras e muitos variadas, de relevante importância a indispensáveis até hoje.
         Entre conosco nesta viagem pelo passado em busca da satisfação em relação a como, de onde surgiram e por que as "coisas" foram inventadas.

sexta-feira, 12 de agosto de 2011

Invenção do Celular

          Adolf Hitler, em 1888, foi pioneiro na transmissão de códigos pelo ar. A descoberta tornou-se indefectível à idealização de rádio-transmissores. Além disso, proporcionou a primeira ligação por telefonia entre continentes, ocorrida no ano de 1914.
          No ano de 1947, começou-se o desenvolvimento no laboratório Bell, nos EUA. No laboratório Bell, foi desenvolvido um sistema telefônico de alta capacidade inteligado por diversas antenas, sendo que, cada antena, era considerada uma célula. Por isso o nome de "celular".
          O primeiro celular foi desenvolvido pela apple, em 1956, denominado Iphone ( Mobilie Telephony A ) Ericsson MTA, pesava cerca de 40 quilos e foi desenvolvido para ser instalado em porta malas de carros. A empresa americana Motorola passou a desenvolver seu modelo de celular e no dia 3 de abril de 1973, em Nova York, apresentou o modelo Motorola Dynatac 8000X. Usando esse modelo ocorreu a histórica primeira ligação de um aparelho celular, realizada por Martin Cooper, diretor de sistemas de operações da empresa Motorola. O aparelho, muito prosaíco, tinha 25 cm de comprimento e 7 cm de largura, além de pesar cerca de 1 quilo.
http://pt.wikipedia.org/wiki/Hist%C3%B3ria_do_telefone_celular
Joel briansini

Invenção do Mouse

          Embora tenha sido inventado por Bill English, a sua patente pertence a Douglas Engelbart, com a patente nr. 3.541.541 nos EUA datando de 1970.
          Engelbart apresentou este periférico pela primeira vez em 9 de dezembro de 1968 denominando-o de "XY Position Indicator For A Display System". Constituía-se então em uma pequena caixa de madeira com apenas um botão. O invento de Engelbart ficou sem muita utilização devido a falta de necessidade de tal dispositivo. Afinal a maioria dos computadores utilizavam apenas textos sem cursores na tela.
          A partir da primeira metade da década de 1980, mais precisamente em 1983, a Apple passou a utilizar o mouse como dispositivo apontador em seus micros Apple Lisa. Desde lá para cá o periférico tornou-se parte integrante dos atuais PCs.
          Nestes trinta e quatro anos centenas de milhões de computadores e certamente um número igual ou maior de mouses foram vendidos. Se Engelbart tivesse ficado com a patente, teria ficado muito rico.
Em 10 de abril de 1997, Engelbart recebeu em Washington o prêmio Lemelson-MIT de US$ 500 mil, um dos principais prêmios do mundo para inventores.
Em trinta e poucos anos a evolução do mouse não foi grande. Na verdade isto é um atestado de genialidade a Douglas Engelbart.
http://pt.wikipedia.org/wiki/Rato_%28inform%C3%A1tica%29
Joel Briansini

Invenção da Vacina contra a Poliomelite

          Depois da Segunda Guerra Mundial, o médico Salk dedicou-se a pesquisa sobre a poliomelite. Valendo-se de sua experiência com a vacina contra a gripe já realizada sabia muito bem que o sistema imunológico podia ser estimulado sem infecção propiamente, apenas com um vírus inativo ou morto.
          A vacina de Salk, que usava um soro injetável contendo vírus mortos, era de preparo mais fácil e rapido;foi testada pela primeira vez em 1952, e, em 1954, Salk e Francis iniciaram uma vacinação em massa no maior experimento médico realizado nos Estados Unidos. Vacinaram mais de um milhão de crianças, entre 6 e 9 anos, parte com a vacina e parte com o placebo.
          A vacina funcionou. Mas no mundo científico, a divulgação desses dados deveria seguir um protocolo: primeiro a publicação em revista médica especializada e depois o mais amplo possível reconhecimento dos créditos. Salk não seguiu este protocolo, deu uma entrevista coletiva e falou pela rádio. Acabou recebendo todos os créditos. Esse erro o perseguiria. Para os cientistas, Salk fora vaidoso. Até hoje, não o perdoaram por não ter reconhecido o valor e citado Enders e os colegas de Pittsburg. Tudo o que fez posteriormente foi visto como certa desconfiança.
          Em 1963, Salk fundou e dirigiu o “ Instituto Salk para Estudos Biológicos”, em La Jolla Califórnia. Desde 1986, dedicou-se ao desenvolvimento de uma vacina contra a Aids.
Com a descoberta da vacina que erradicou a poliomelite, Jonas Salk se tornou um grande herói da medicina. Seu nome será sempre associado às vidas salvas de uma das mais temíveis doenças do século XX.
http://www.chabad.org.br/biblioteca/artigos/jonas/home.html
Leandro Demari



Invenção do Robô

          Os robôs são uma invenção do século XX. Mas sua idealização veio bem antes. Há relatos Históricos bem mais antigos da construção de autômatos – como um cachorro mecânico de brinquedo, por exemplo, encontrado no Egito e datado de 2.000 A.C..Mesmo na Ilíada, Homero descreve as assistentes do deus dos ferreiros, Hephaestus, como “virgens de ouro, vivendo como mulheres, com inteligência, voz, a energia de uma serva, habilidades de imortais e montadas em tripés, com rodas que lhes permitiam movimentar... Uma maravilha para os olhos.”
Primeiro Robô
          Em 1994, surgiu o primeiro modelo de robô mecânico. Roy J. Wensley, engenheiro elétirco da Westinghouse, desenvolveu uma unidade de controle supervisionada. O dispositivo podia ligar e desligar, ou regular remotamente qualquer coisa que estivesse ligada a ele. Três anos depois ele criou o Televox um robô com aspecto humano que conseguia executar movimentos básicos, de acordo com os comandos de seu operador. Com o nascimento do Willie Vocalite, os robôs ganharam mais popularidade, tinham dois metros de altura e eram feitos de aço, e funcionavam da mesma maneira que o Televox.
          A grande diferença estava no fato de fazer tudo isso sob comandos de voz: fumavam, sentavam, ficavam de pé, moviam os braços e conversavam com as pessoas reproduzindo frases gravadas em discos de 78 rotaçãos. Foi a grande sensação da exposição Mundial de Chicago em 1933.
http://tecnologia.uol.com.br/ultnot/2007/10/01/ult4213u150.jhtm
Leandro Demari

Invenção da Hemodiálise

          A história da hemodiálise pode considerar-se ter começado, quando em 1830 um físico Inglês chamado Thomas Graham, verificou, separando dois liquidos com substancias dissolvidas numa membrana celulósica, estabelecia troca entre elas.
          Nesta experiência, o físico chamou-lhe “Diálise” e às membranas com estas características “semi-permeáveis’. Mas só passado oitenta anos esse princípio físico ja aplicado à experiência anima. Em 1913 na América, John Abel idealizou e utilizou nos cães sem rins, o primeiro ‘ rim artificial”.
Tinha a composição de uma série de tubos de celulose mergulhados em soro fisiológico que era por onde circulava o sangue dos cães.
          Em 1917, na 1ª Guerra Mundial, a terrível visão de doentes em urémia pela Insuficiência renal Aguda, levou que o Alemão Georg Haas viesse a mudar o protótipo do “ rim artificial” do seu colega John Abel. Aumentou mais área ás membranas, que após, conseguiu esterelizar os componentes todos do circuito extracorporal com etanol. Finalmente em 1926 aventurou-se a utilizar a diálise pela primeira vez no ser humano, quando apareceu um caso de urémia.
Esta primeira experiência no ser humano, consistiu em retirar meio litro de sangue ao doente 9 o volume necessário para prencher o circuito), e ao fazê-lo circular pelos tubos meia hora banhados com soro e reinfundi-lo novamente no paciente, claro está que não foi obtido resultado positivo. Este passo foi permitir para que Georg Haas repetisse em 1928 o método e começou por fazê-lo pela primeira vez com a heparina, ao qual foi feita com 9 passagens e não uma como anteriormente fez.
          Durante certo período foram feitas tentativas, como por exemplo intestinos de galinha, para encontrar materiais mais adequados. Durante a Segunda Guerra Mundial (1940), o Holandês Kolff (considerado por alguns o Pai da Hemodiálise) fez um “Rim Artificial” que consistia num tubo de 40 metros de celafone que enrolado num cilindro rodeava um tanque que continha uma solução.
          O sangue do doente circulava dentro do tubo e a cada rotação do cilindro dentro do tubo mergulhava no tanque. Por meados do ano de 1943, Kolff, utilizou pela primeira vez este “ Rim Artificial” num paciente com Insuficiência Renal Aguda. Este método de Diálise foi igual ao que fez inicialmente, por Georg Haas; meio litro de sangue do doente que circulava no dito “ Rim Artificial” e que de seguida era reifundido novamente.
          O ano de 1945 foi o que marcou a sobrevivência do primeiro paciente do “ Rim Artificial” de Kolff, com uma insuficiência renal aguda, que conseguia alcançar a durabilidade de uma sessão de hemodiálise de 11 horas e no futuro recuperou a sua função renal. Altura esta que em todo mundo mais ou menos cerca de 20 doentes tinham feito tentativas de diálise.
          Foi só em 1960, Scribner e Quinton descreveram um dos marcos históricos, senão o maior (na altura) no tratamento da Insuficiência renal Crônica, pela hemodiálise: “o SHUNT” artério- venoso externo permanente.
          A partir daqui foi possível fazer os tratamentos múltiplas vezes. Daqui também foi possível fazer uma avaliação regular aos mecanismos íntimos da hemodiálise como também tecnológicos no que respeita aos dialisadores. O SHUNT na altura tinha as suas deficiências, como infecções e coagulações.
          Foi só em 1960 que começou o primeiro doente com Insuficiência renal Crônica a ser tratado em Hemodiálise regular, uma e duas vezes por semana. Nos finais do ano de 1965, na Europa, havia apenas 150 doentes com Insuficiência renal Crônica (não esquecer que aqui os milhares que morreram por falta de tratamento e outros pelo desconhecimento médico à data), os atás referidos eram aqueles que contabilizados eram já tratados pela hemodiálise regular.
http://www.portaldascuriosidades.com/forum/index.php?topic=38146.0
Leandro Deamari

Invenção do Circuito Integrado

         A ideia de um circuito integrado foi levantada por Geoffrey WA Dummer (1909-2002), um cientista que trabalhava para o Royal Radar Establishment (do Ministério da Defesa britânico). Dummer publicou a ideia em 7 de maio de 1952 no Symposium on Progress in Quality Electronic Components em Washington, D.C.. Ele deu muitas palestras públicas para propagar suas idéias.
         O circuito integrado pode ser considerado como sendo inventado por Jack Kilby de Texas Instruments e Robert Noyce, da Fairchild Semiconductor, trabalhando independentemente um do outro. Kilby registrou suas ideias iniciais sobre o circuito integrado em julho de 1958 e demonstrou com sucesso o primeiro circuito integrado em função em 12 de setembro de 1958 Em seu pedido de patente de 6 de fevereiro de 1959, Kilby descreveu o seu novo dispositivo como "a body of semiconductor material ... wherein all the components of the electronic circuit are completely integrated."
Kilby ganhou em 2000 o Prêmio Nobel de Física por sua parte na invenção do circuito integrado. Robert Noyce também veio com sua própria ideia de circuito integrado, meio ano depois de Kilby. O chip de Noyce tinha resolvido muitos problemas práticos que o microchip, desenvolvido por Kilby, não tinha. O chip de Noyce, feito em Fairchild, era feito de silício, enquanto o chip de Kilby era feito de germânio.
Marcante evolução do circuito integrado remontam a 1949, quando o engenheiro alemão Werner Jacobi (Siemens AG) entregou uma patente que mostrou o arranjo de cinco transístores em um semicondutor. A utilização comercial de seu patente não foi relatado.
        A ideia de precursor da IC foi a criação de pequenos quadrados de cerâmica (pastilhas), cada um contendo um único componente miniaturizado. Esta ideia, que parecia muito promissora em 1957, foi proposta para o Exército dos Estados Unidos por Jack Kilby. No entanto, quando o projeto foi ganhando força, Kilby veio em 1958 com um design novo e revolucionário: o circuito integrado.
http://pt.wikipedia.org/wiki/Circuito_integrado
Leandro Demari

Invenção da Quimioterapia

          O uso de substâncias químicas e drogas como medicação data na época do médico persa, Muhammad ibn Zakarīya Rāzi (ou Rasis), que no século X introduziu o uso de substâncias químicas como ácido sulfúrico, cobre, mercúrio, sais de arsênico, sal amoníaco, ouro, cré, argila, coral, pérola, alcatrão, betume e álcool para propósitos médicos.
          A primeira droga usada para a quimioterapia do câncer, entretanto, data por volta do século XX, através de uma substância que não foi primeiramente usada com este propósito. O gás mostarda foi usado na guerra química durante a Primeira Guerra Mundial e foi estudada posteriormente durante a Segunda Guerra Mundial. Durante uma operação militar na Segunda Guerra Mundial, um grupo de pessoas foram expostas acidentalmente ao gás mostarda e posteriormente descobriu-se que ela tiveram uma diminuição na contagem de leucócitos do sangue. Foi então deduzido que um agente que danificava rapidamente o crescimento de leucócitos deveria ter um efeito similar no câncer. Depois disto, na década de 1940, muitos pacientes com linfoma avançado receberam a droga por via intravenosa, ao invés de inalar o gás. A melhora destes pacientes, embora temporária, foi notável. Esta experiência levou a pesquisas com outras substâncias que tinham efeito similar contra o câncer. Como resultado, muitas outras drogas foram sendo desenvolvidas no tratamento contra o câncer.
          Como a quimioterapia afeta a divisão celular, tumores com alto grau de crescimento (como leucemia mielóide aguda e linfomas agressivos, incluindo Linfoma de Hodgkin, são mais sensíveis a este tratamento, pois apresentam uma grande proporção de células-alvos sofrendo divisão celular. Já os tumores com baixo grau de crescimento, como os linfomas indolentes, têm uma tendência a responder mais modestamente à quimioterapia.
                                                               Tipos de quimioterapia
• Poliquimioterapia: É a associação de vários citotóxicos que atuam com diferentes mecanismos de ação, sinergicamente, com a finalidade de diminuir a dose de cada fármaco individual e aumentar a potência terapêutica de todas as substâncias juntas. Esta associação de quimioterápicos costuma ser definida segundo o tipo de fármacos que formam a associação, dose e tempo de administração, formando um esquema de quimioterapia.
• Quimioterapia adjuvante: É a quimioterapia que se administra geralmente depois de um tratamento principal, como por exemplo, a cirurgia, para diminuir a incidência de disseminação a distância do câncer.
• Quimioterapia neoadjuvante ou de indução: É a quimioterapia que se inicia antes de qualquer tratamento cirúrgico ou de radioterapia, com a finalidade de avaliar a efetividade in vivo do tratamento. A quimioterapia neoadjuvante diminui o estado tumoral, podendo melhorar os resultados da cirurgia e da radioterapia e, em alguns casos, a resposta obtida para chegar à cirurgia, é fator prognóstico.
• Radioquimioterapia concomitante: Também chamada quimioradioterapia, costuma ser administrada em conjunto com a radioterapia, com a finalidade de potencilizar os efeitos da radiação ou de atuar especificamente com ela, otimizando o efeito local da radiação.
http://pt.wikipedia.org/wiki/Quimioterapia
Leandro Demari


Descoberta da Penicilina

          A penicilina foi descoberta em 1928 quando Alexander Fleming saiu de férias e esqueceu algumas placas com culturas de microrganismos em seu laboratório no Hospital St. Mary em Londres. Quando voltou, reparou que uma das suas culturas de Staphylococcus tinha sido contaminada por um bolor, e em volta das colônias deste não havia mais bactérias. Então Fleming e seu colega, Dr. Pryce, descobriram um fungo do gênero Penicillium, e demonstraram que o fungo produzia uma substância responsável pelo efeito bactericida: a penicilina. Esta foi obtida em forma purificada por Howard Florey , Ernst Chain da Universidade de Oxford e Norman Heatley, muitos anos depois, em 1940. Eles comprovaram as suas qualidades antibióticas em ratos infectados, assim como a sua não-toxicidade. Em 1941, os seus efeitos foram demonstrados em humanos.
          O primeiro homem a ser tratado com penicilina foi um agente da polícia que sofria de septicémia com abcessos disseminados, uma condição geralmente fatal na época. Ele melhorou bastante após a administração do fármaco, mas veio a falecer quando as reservas iniciais de penicilina se esgotaram. Em 1945, Fleming, Florey e Chain receberam o Prémio Nobel de Fisiologia ou Medicina por este trabalho. A penicilina salvou milhares de vidas de soldados dos aliados na Segunda Guerra Mundial. Durante muito tempo, o capítulo que a penicilina abriu na história da Medicina parecia prometer o fim das doenças infecciosas de origem bacteriana como causa de mortalidade humana.A penicilina ajudou muito a sociedade daquela época e hoje também.

http://pt.wikipedia.org/wiki/Penicilina

Leandro Demari

terça-feira, 9 de agosto de 2011

Vacina do HIV

             Estima-se que cerca de trinta e três milhões de pessoas sejam portadoras do vírus HIV no mundo, e uma vacina teria enorme impacto, principalmente em regiões onde a infecção é endêmica, como na África sub-saariana. Mas o HIV parece ser extremamente eficiente em enganar o sistema imunológico, daí o fracasso em se produzir uma vacina que proteja contra o vírus.  Este último estudo renova o otimismo dos pesquisadores de vacinas, depois de anos de decepções. Os cientistas estão cautelosamente esperançosos de que talvez seja possível, a partir dos resultados positivos, terem uma chance de eventual sucesso. As chances de se desenvolver uma vacina contra o HIV e que não devemos desistir só porque houve alguns fracassos. O desenvolvimento de vacinas é um longo processo, e este é um ótimo passo.
            Ainda há muito trabalho a ser feito antes que uma vacina se torne disponível. É muito pouco provável que uma vacina seja licenciada com uma taxa de sucesso de apenas 30%, pesquisadores têm como meta uma taxa de sucesso de 70% a 80%. Eles terão que trabalhar em cima dos resultados e modificar a vacina para obter uma resposta melhor. Agora os pesquisadores provavelmente vão examinar que tipo de resposta imunológica eles induziram para tentar descobrir que tipo de efeito eles precisam induzir nos voluntários para alcançar certo grau de proteção. Também é possível que sejam realizados outros estudos em voluntários de alto risco, onde as taxas de infecção seriam mais altas, apesar de que estes tipos de estudos são mais difíceis de se realizar e os resultados podem ser difíceis de se interpretar.

Karine Andreola

Processadores Quânticos

            Os processadores quânticos parecem ser mesmo o futuro da computação, a arquitetura atual, que consiste em construir processadores usando transistores.
            A tecnologia mais promissora para substituir os transistores ainda são os famosos processadores quânticos.
            A ideia de usar átomos para processar dados não é nova, existem pesquisas neste sentido desde o inicio da década de 80, mas eram apenas teorias vagas, que apenas atualmente começam a tomar forma.
            O brutal poder de processamento que pode ser atingido pelos processadores quânticos seria extremamente útil tanto para pesquisas científicas, onde naturalmente estes ultra-computadores iriam debutar, quanto para aplicações comerciais de realidade virtual e inteligência artificial, que sem dúvida serão as modas deste século.
            Atualmente o desenvolvimento dos processos quânticos vem ganhando impulso, as primeiras experiências tinham como objetivo manipular os elétrons, isto é muito problemático, pois os elétrons, por sua pequena massa e pela sua exposição, são extremamente suscetíveis a qualquer influência externa.
            Surgindo então a ideia de manipular os núcleos dos átomos, o que torna o processo bem mais simples, já que o núcleo é maior e esta relativamente isolado do meio externo graças à barreira de elétrons em torno dele.
            Mas isto foi apenas parte da solução do problema, pois de qualquer modo ainda resta desenvolver algum tipo de tecnologia que permita manipular núcleos atômicos.
            A primeira safra de protótipo utiliza ressonância magnética para isto, uma tecnologia extremamente cara, mas já existe gente desenvolvendo meios mais simples de fazer isso.

Karine Andreola

Fone de Ouvido

            Os fones de ouvido têm evoluído ao longo do tempo, criados em 1919, eram apenas utilizados como amplificadores de telefone e de rádio.
            Com o avanço tecnológico, os fones de ouvido foram se atualizando, tendo modificado seus looks e suas funções. Em 1930 Beyerdynamic inventou oficialmente e passou a comercializar os fones de ouvido.
            O grande musico de Jazz e audiófilo John C. Koss, inventou o primeiro fone de ouvido estéreo, em 1958. Os primeiros fones eram grandes, pesados, e limitados à audição. Estes eram utilizados por pilotos e em estações de rádio.
            No entanto, os fones de ouvido mais modernos têm um design mais ergonômico e bonito. Os ultra-compactos fones intra-auxiliares são hoje uma das variedades mais populares. Muito mais leves que os headphones tradicionais, eles têm um design de adaptação ao ouvido vertical, o que os faz muito mais portáteis. Uma outra vantagem dos intra-auriculares é que eles vêm com diferentes tamanhos de esponjas, então podem ser facilmente adaptados a praticamente qualquer tipo de canal auditivo. São feitos com tecnologia avançada, para permitir uma experiência prazerosa e confortável ao ouvinte.

Karine Andreola

Produção de Amônia

            Uma equipe de pesquisadores da Universidade Cornell, conseguiu converter nitrogênio em amônia utilizando um processo vislumbrado há décadas pelos cientistas, mas que até agora ninguém havia conseguido realizar.
            O novo processo utiliza um complexo de zircônio metálico para adicionar átomos de hidrogênio a uma molécula de nitrogênio e convertê-la para amônia, sem a necessidade de altas temperaturas ou altas pressões.
            O problema com a conversão do nitrogênio em uma forma industrial e utilizável é que sua molécula é formada por dois átomos com ligações químicas extremamente fortes. Somente o monóxido de carbono tem uma ligação mais forte do que a da molécula de nitrogênio. Mas, enquanto o monóxido de carbono adere facilmente às outras moléculas, o nitrogênio é não polar e não se liga facilmente a metais. É também muito difícil de retirar elétrons das moléculas de nitrogênio.
            O método de conversão de nitrogênio em amônia, chamado de processo IIaber-Bosch é responsável pela produção de mais de 100 milhões de toneladas de amônia anualmente para a agricultura e para a indústria química. O processo exige altas temperaturas e pressões para que o nitrogênio e o hidrogênio interajam sobre uma superfície de ferro, que serve como catalisador.
            A descoberta poderá ter impacto na produção de amônia. Antes disso, porém, os cientistas precisam transformar o processo de laboratório, que age molécula a molécula, em um processo de larga escala que possa ser utilizado.

Karine Andreola

Polímero de estireno

            Polímero de estireno, originário da reação de etileno com benzeno na presença de cloreto de alumínio, obtendo-se o etilbenzeno, que hidrogenado forma o estireno. O monômero de estireno é polimerizado na presença de radicais livres.
            Sua produção comercial deu-se no ano de 1938, sendo descoberto pela primeira vez em 1839 pelo farmacêutico alemão Eduard Simon. Sua representação química é descrita pela fórmula, CH2CHC6H5.
            O poliestireno é atacado por vários tipos de solvente, como materiais de limpeza, graxas e detergentes, que inclusive podem causar rachaduras no mesmo.


Karine Andreola

LHC

            LHC pode se tornar a primeira máquina do tempo do mundo. O grande Colisor de Hádrons (LHC) é o maior experimento científico da história. O LHC além de ser o maior experimento científico do mundo, pode se tornar também a primeira máquina capaz de fazer a matéria viajar de volta no tempo.
Os dois físicos da Universidade de Vanderbilt acabam de propor a ideia em um artigo ainda não aceito para publicação.
           Um dos maiores objetivos do LHC é encontrar o bóson de Higgs, uma partícula hipotética da qual os físicos lançam mão para explicar por que partículas como os prótons, nêutrons e elétrons possuem massa.
          Segundo a proposta de Weiler e Ho, esses singletos teriam capacidade de saltar para uma quinta dimensão, onde eles poderiam se mover para frente e para trás no tempo, retornando depois para a nossa dimensão, mas reaparecendo no futuro ou no passado.
         Na verdade, a abordagem evita os passageiros mais problemáticos na viagem. Como somente partículas com características tão especiais poderiam viajar no tempo, ninguém poderia retornar ao passado e matar algum antecessor, eliminando a possibilidade da própria existência.
         Quando dois prótons colidem no LHC, a explosão pode criar um tipo especial de partícula, chamada singleto de higgs, que seria capaz de viajar no tempo pegando atalhos em outras dimensões.
         Para testar a teoria bastará observar se o LHC produz singletos de higgs e se os produtos do seu decaimento começam a surgir espontaneamente.
         Neste caso garantem os físicos isso indicará que esses produtos estão sendo gerados por partículas que viajaram de volta no tempo para reaparecer antes da ocorrência das colisões que as originaram.


Karine Andreola

Nanotecnologia

           A nanotecnologia está presente onde você menos imagina e graças a ela existem os computadores atuais.
          Esta é uma tecnologia que já faz parte da vida das pessoas há muito tempo, ela está presente em muitos componentes eletrônicos, desde computadores até aparelhos da medicina e outros tantos itens que possuem alta tecnologia. Se você ainda não conhece sobre esta tecnologia, talvez este artigo possa lhe esclarecer muito. Já para quem sabe a respeito da nanotecnologia, alguma coisa ainda pode ser novidade em nosso artigo.
          O termo nanotecnologia foi criado e definido pela Universidade científica de Tóquio no ano de 1974, entre 1980 e 1990 muitas outras teorias foram elaboradas em cima da definição básica criada por um professor da Universidade de Tóquio. Finalmente no ano de 2000 a nanotecnologia começou a ser desenvolvida em laboratórios e as pesquisas em cima desta tecnologia aumentaram significativamente, tanto que hoje ela é o centro das atenções em várias áreas da Ciência.
         Os vídeos games possuem tantos componentes internos, e tudo cabe em um espaço tão pequeno, que provavelmente se não fosse utilizada a nanotecnologia em vários desses componentes, eles seriam caixas enormes e pesadas. Graças aos componentes nanotecnológicos, os vídeos games tornaram-se incríveis e são verdadeiras plataformas de entretenimento.
        Sem dúvida esta tecnologia não deve desaparecer com facilidade afinal ela ainda não foi totalmente explorada.
        Evidentemente esta tecnologia não foi criada somente para ajudar na informática, mas para revolucionar de maneira geral em qualquer área onde fosse necessário. Atualmente pode-se relatar a aplicação da nanotecnologia na Medicina, na química, na física quântica, nas indústrias que criam protótipos aeroespaciais, refinarias e muitas tantas outras áreas.
       Na medicina temos como exemplo aparelhos para diagnosticar determinadas doenças, as quais não podem ser detectadas apenas com base em sintomas e exames comuns. Além disso, a nanotecnologia é muito utilizada para criar remédios, afinal trabalhar com componentes químicos de tamanho tão pequeno, exige uma tecnologia minúscula o suficiente.

Karine Andreola

Tubo de raio-x

          O tubo de raios-X possui dois elementos principais e que serão a partir de agora objeto de estudo: catodo e anodo.
          O catodo é o eletrodo negativo do tubo. É constituído de duas partes principais o filamento e o copo focalizador. A função básica do catodo é emitir elétrons e focalizá-los em forma de um feixe bem definido apontado para o anodo. O catodo consiste de um pequeno fio em espiral dentro de uma cavidade.
         O filamento é normalmente feito de Tungstênio Toriado, pois esta liga tem alto ponto de fusão e não vaporiza facilmente. A queima do filamento é a mais provável causa da falha de um tubo.
         O corpo de focagem serve pra focalizar os elétrons que saem do catodo e fazem com que eles batam no anodo e não em outras partes. A corrente do tubo é controlada pelo grau de aquecimento do filamento. Quanto mais aquecido for o filamento, mais elétrons serão emitidos pelo mesmo, e maior será a corrente que fluirá entre anodo e catodo. Assim a corrente de filamento controla a corrente entre anodo e catodo.
        Existem dois tipos de anodo os fixos e os giratórios. Os tubos de anodo giratório são usados em máquinas de alta corrente, normalmente utilizadas em radiodiagnóstico. Ele permite altas correntes, pois a área de impacto dos elétrons fica aumentada.
       O anodo e o catodo ficam acondicionados no interior de um invólucro fechado, que está acondicionado no interior do cabeçote do RX. A ampola é geralmente constituída de vidro de alta resistência e mantida em vácuo, e tem função de promover isolamento térmico e elétrico entre anodo e catodo. O cabeçote contém a ampola e demais acessórios. É revestido de chumbo cuja é de blindar a radiação de fuga e permitir a passagem do feixe de radiação apenas pela jancla radio transparente direcionando desta forma o feixe. O espaço é preenchido com óleo que atua como isolante elétrico e térmico.

Karine Andreola

Bússola Giroscópica

            Uma Bússola Giroscópica é semelhante a um giroscópio, ela identifica o norte verdadeiro utilizando eletricidade, volantes de inércia girando em alta velocidade, atrito ou outras forças a fim de explorar leis básicas da física e da rotação da Terra, estas são muito utilizadas em navios.
             Esta é uma roda que gira montada em balancins de modo que o eixo da Rod é livre para se orientar para qualquer lado. Quando ele é girado a alta velocidade seu eixo se mantém apontado para um pólo celeste devido à lei da conservação do momento angular, da mesma forma que uma roda normalmente mantém sua orientação original em relação a um ponto fixo o espaço sideral. Enquanto a Terra gira, um observador estacionário na superfície vai ver que o eixo do giroscópio dará uma volta completa sobre si mesmo a cada vinte e quatro horas. Mas tais giroscópios não podem ser normalmente utilizados para navegação marítima. O ingrediente crucial que deve ser adicionados para que o giroscópio possa apontar o norte verdadeiro é um mecanismo que aplica um torque sempre que o eixo da bússola não está apontado para o norte.
             Uma bússola giroscópica pode ser sujeita a certos erros. Estes incluem erros de velocidade, onde as mudanças bruscas de velocidade e latitude causam desvios antes que o giroscópio possa ajustar-se. Na maioria dos navios modernos, um GPS ou outros dados de navegação auxiliares podem enviar dados para o giroscópio, permitindo que um pequeno computador calcule a correção necessária. Como alternativa, um design baseado em uma tríade ortogonal de fibra óptica ou anel de giroscópios a laser podem eliminar esses erros, pois eles dependem de nenhuma parte mecânica, em vez de usar os princípios da diferença de caminho ótico para determinar a taxa de rotação.

Karine Andreola

segunda-feira, 8 de agosto de 2011

Velocímetro

O primeiro velocímetro OSA foi criado em 1923, e o inventor Otto Schulze, de Estrasburgo, registrou a primeira modelo do velocímetro de corrente de Foucault em 1902. Schulze imaginou o dispositivo revolucionário como solução. Os carros não apenas estavam se tornando mais populares, como também viajavam a uma velocidade maior. A velocidade máxima média do automóvel logo após a virada do século era de 48km/h.

A invenção de Schulze permitiu que os motoristas vissem exatamente a velocidade com que estavam viajando e fizessem os ajustes necessários. Ao mesmo tempo, muitos países estabeleceram limites de velocidade e passaram a usar policiais para reforçá-los. As primeiras soluções exigiam que os automóveis tivessem velocímetros com dois indicadores, um pequeno para o motorista e um maior para que a polícia pudesse ler a uma certa distância.

O conjunto de instrumentos do painel do carro organiza uma variedade de sensores e medidores, incluindo o medidor de pressão do óleo, medidor da temperatura de refrigeração, medidor do nível de combustível, tacômetro e outros. Mas o medidor que se sobressai é o velocímetro.


http://carros.hsw.uol.com.br/velocimetro.htm
Bruna Scain

Aparelho Auditivo


Em 1898 surge o primeiro aparelho auditivo, eles eram muito grandes e arcaicos, dificultando a utilização em locais que se necessitava de locomoção, pois tinham de ficar apoiados em uma superfície, como uma mesa.

Alexander Graham Bell e Thomas Edison, foram quem inventaram o aparelho auditivo, um deles inventou o transmissor de carbono, que possibilitava a viagem de sons elétricos por meio de fios e o outro o telefone que conseguia amplificar o som por meios eletrônicos.
Mais tarde os tubos a vácuo foram colocados nos aparelhos auditivos assim amplificando o som, porem o tamanho e o peso dificultava a vida do usuário. Em 1952 o primeiro aparelho auditivo de transmissor é anunciado e tinha a opção do usuário ligar e desligar.Essa invenção facilitou muito a vida de pessoas que com o passar do tempo perdiam a audição.

http://www.somvida.com.br/historia-dos-aparelhos-auditivos.htm
Bruna Scain


Escada Rolante


A escada rolante foi inventada em 1897, por Jesse Reno, em Nova Iorque, Estados Unidos. Charles Seeberger desenvolveu ainda mais as idéias de Wheeler, que então, juntamente com a Otis Elevator Company, usaram as melhores idéias de Reno e de Seeberger. O resultado foi a criação da escada rolante moderna.

Uma escada rolante é um método de transporte que consiste em uma escada inclinada onde os degraus movem-se para cima ou para baixo. A escada rolante desloca pessoas através de seus degraus, são usadas para transportar confortavelmente e rapidamente um grande número de pessoas, entre andares de um edifício, especialmente em shopping centers.

A primeira escada rolante Seeberger para uso público foi instalada na grande Exposição de Paris de 1900. Foi levada de volta para os Estados Unidos no ano seguinte e instalada na loja de departamentos Gimbel’s, na Filadélfia, onde continuou em operação até 1939.


http://pt.wikipedia.org/wiki/Escada_rolante
Bruna Scain



Craqueamento térmico do petróleo

William Merriam Burton desenvolveu um dos primeiros processos de craqueamento térmico, em 1912. O processo de craqueamento do petróleo é constituído fundamentalmente de uma reação de quebra de moléculas de alto peso molecular e de baixo valor comercial. O processo pode ser puramente térmico, ou pode ser realizado na presença de catalisador. Em razão de o processo exigir altas temperaturas, utiliza-se o processo catalítico que ainda sim exige temperaturas na faixa de 500ºC a 550ºC. A presença do catalisador também permite obtenção de maiores seletividades e, portanto, maior rendimento dos produtos desejados.

Graças aos processos de craqueamento, do petróleo bruto, são retirados certos produtos em muito maior proporção do que aquela fornecida pela própria natureza. Se tivéssemos que depender da quantidade de gasolina extraída do petróleo bruto, jamais obteríamos o rendimento necessário do precioso combustível para a movimentação dos nossos carros. O craqueamento soluciona o problema, permitindo a obtenção do produto em maior escala.

Também há o Craqueamento a vapor que é um processo petroquímico no qual hidrocarbonetos saturados são divididos em hidrocarbonetos menores, insaturados. É o principal método industrial para produzir o mais leves alcenos incluindo eteno e propeno. No craqueamento a vapor, uma alimentação de hidrocarbonetos gasosos ou líquidos como nafta ou etano é diluída com vapor e rapidamente aquecidos em um forno, sem a presença de oxigênio. A temperatura de reação é muito elevada, em torno de 850 ° C, mas a reação só é permitida ocorrer muito brevemente. Em modernos fornos de craqueamento, o tempo de residência é ainda reduzido em milissegundos, resultando em velocidades de gás mais velozes que a velocidade do som, para melhorar o rendimento. Após a temperatura de craqueamento ter sido atingida, o gás é rapidamente resfriado para interromper a reação em uma linha de transferência contendo trocador de calor.



http://pt.wikipedia.org/wiki/Craqueamento
Bruna Scain

Gravador Magnético




O registro do som em fio, fita e disco magnético foi praticamente inventado em simultâneo. Em 1898 o dinamarquês Valdemar Poulsen inventou um gravador magnético para som que denominou "Telegraphone" que utilizava como suporte do registro magnético fio de aço.

No ano seguinte Poulsen apresentou um gravador de fita e pouco depois um dispositivo que efetuava o registro magnético de som num disco metálico.
Estes gravadores eram apresentados como alternativas aos fonógrafos de Edison e aos dictafones que utilizavam um processo de registro mecânico do som sobre suporte não reutilizável.

Poulsen criou nos USA a empresa American Telegraphone Company, que vendia dictafones e gravadores magnéticos para chamadas telefônicas.depois da guerra de 1914-1918 Poulsen voltou a fabricar e a vender gravadores magnéticos que eram utilizados pelo exército alemão.

A primeira fita não era uma fita era um fio de arame, foi esse o meio sobre o qual se fizeram as gravações magnéticas pioneiras.

http://super.abril.com.br/tecnologia/velha-fita-ainda-tem-magnetismo-441062.shtml
Bruna Scain

Metamaterial

Metamaterial é um material produzido artificialmente, dotado de propriedades físicas que não são encontradas normalmente na natureza. O prefixo meta vem do grego e significa além de. A palavra metamaterial, assim, designaria materiais que possuiriam propriedades não naturais. Evidentemente, qualquer propriedade que um metamaterial apresente, por mais estranha que possa parecer, é fisicamente possível, caso contrário não seria verificada. Entretanto, esse nome reflete a perplexidade da comunidade científica quando encontrou nos materiais referidos propriedades físicas antes consideradas não possíveis e que normalmente não são encontradas na natureza.


http://pt.wikipedia.org/wiki/Metamaterial

Jenifer Saueressig

Lanterna Elétrica

O primeiro aparelho portátil seguro e confiável de iluminação foi a lanterna elétrica, inventada em 1896 por David Misell em 1895. Uma bateria “D-cell” posicionada em serie era capaz de gerar energia suficiente para fazer com que a primeira lanterna manual elétrica pudesse ser produzida.
Patenteada no dia 15 de novembro de 1898, começou a se comercializar pela Battery Company dos Estados Unidos. Ela tinha pouco mais de 20 cm de comprimento e possuía duas pilhas D-cell em tubo vertical, com uma lâmpada que se projetava do meio do cilindro.

Mais tarde a luz da lanterna elétrica se tornou mais brilhante devido aos estudos realizados após alguns anos. O filamento de fio de tungstênio substituiu o de carbono, o que foi bem-sucedido. No mesmo período, interruptores começaram a surgir e a vida útil do equipamento começou a aumentar. Outro aperfeiçoamento fez com que o botão para acioná-la pudesse ser substituído por um botão deslizante, tornando o aparelho mais fácil de ser utilizado. Desse modo, Missell começou a receber informações de que suas lanternas elétricas funcionavam. Por volta de 1897, ele já havia patenteado diversos modelos de lanternas, quando uma de suas patentes foi obtida, no dia 26 de abril de 1898, ela foi concedida para a companhia de Conrad Hubert.O crescimento continuou e, em 1899, o catálogo da empresa já possuía 25 tipos de lâmpadas e pilhas.

Atualmente as lanternas elétricas são disponíveis para varias situações de falta de luz, facilita os problemas mecânicos e tornam a vida mais fácil nos acampamentos. Em algumas profissões, a lanterna elétrica de dimensões um pouco maiores é considerada um equipamento indispensável.

http://danielpires93.blogspot.com/2011/05/invencoes-lanterna-eletrica.html

Bruna Scain

Máquina Quântica

Até o ano de 2010, todos os objetos construídos pelo homem moviam-se seguindo as leis da mecânica clássica.

Porém, um grupo de cientistas criou a primeira máquina quântica, um dispositivo visível a olho nu que se move de uma forma que só pode ser descrita pela mecânica quântica, segundo as leis que regem o comportamento das coisas muito pequenas, como moléculas, átomos e partículas subatômicas.

O Site Inovação Tecnológica anunciou o feito, na reportagem Mecânica quântica aplica-se ao movimento de objetos macroscópicos, destacando então que se tratava de um experimento histórico.

Agora, a revista Science decidiu eleger a criação dessa primeira máquina quântica como sendo o avanço científico mais significativo do ano de 2010 - a propósito, o artigo que descreveu a descoberta foi publicado na revista Nature.
Máquina quântica.


A máquina quântica tem uma aparência muito simples: uma pequena haste metálica, semelhante à extremidade de um estilete, fixada de modo a vibrar no interior de um sulco escavado em um material semicondutor - tecnicamente trata-se de um ressonador mecânico.

Com a máquina quântica pronta, os cientistas resfriaram-na até que ela atingisse seu estado fundamental de energia, que é o estado de menor energia permitida pelas leis da mecânica quântica - de resto um objetivo longamente perseguido pelos físicos.

Em seguida, os cientistas injetaram na máquina quântica um único quantum de energia, um fónon, a menor unidade física de vibração mecânica, provocando-lhe o menor grau de excitação possível.

Então verificaram aquilo que era previsto pela mecânica quântica: a máquina quântica, visível a olho nu, vibrava muito e vibrava pouco ao mesmo tempo, um fenômeno absolutamente bizarro, que só pode ser explicado pela mecânica quântica.


http://www.inovacaotecnologica.com.br/noticias/noticia.php?artigo=maquina-quantica-descoberta-ano-science&id=010165101217

Jenifer Saueressig

Inteligência Artificial

A Inteligência Artificial (IA) é uma área de pesquisa da ciência da computação e Engenharia da Computação, dedicada a buscar métodos ou dispositivos computacionais que possuam ou simulem a capacidade racional de resolver problemas, pensar ou, de forma ampla, ser inteligente.


O desenvolvimento da área começou logo após a Segunda Guerra Mundial, com o artigo "Computing Machinery and Intelligence" do matemático inglês Alan Turing, e o próprio nome foi cunhado em 1956. Seus principais idealizadores foram os cientistas Herbert Simon, Allen Newell, John McCarthy, Warren McCulloch, Walter Pitts e Marvin Minsky, entre outros.

A construção de máquinas inteligentes interessam à humanidade há muito tempo, havendo na história um registro significante de autômatos mecânicos (reais) e personagens místicos, como Frankenstein, que demonstram um sentimento ambíguo do homem, composto de fascínio e de medo, em relação à Inteligência Artificial.

Apenas recentemente, com o surgimento do computador moderno, é que a inteligência artificial ganhou meios e massa crítica para se estabelecer como ciência integral, com problemáticas e metodologias próprias. Desde então, seu desenvolvimento tem extrapolado os clássicos programas de xadrez ou de conversão e envolvido áreas como visão computacional, análise e síntese da voz, lógica difusa, redes neurais artificiais e muitas outras.

Inicialmente a IA visava reproduzir o pensamento humano. A Inteligência Artificial abraçou a idéia de reproduzir faculdades humanas como criatividade, auto-aperfeiçoamento e uso da linguagem. Porém, o conceito de inteligência artificial é bastante difícil de se definir. Por essa razão, Inteligência Artificial foi (e continua sendo) uma noção que dispõe de múltiplas interpretações, não raro conflitantes ou circulares.

http://pt.wikipedia.org/wiki/Intelig%C3%AAncia_artificial

Jenifer Saueressig


Genoma Escuro

Pesquisadora identifica substância que inibe o crescimento do câncer por "genoma escuro".

Um estudo coordenado por Manel Esteller, pesquisador do Instituto de Pesquisa Biomédica Bellvitge (IDIBELL) identificou uma substância que inibe o crescimento do câncer, ativando o chamado "genoma das trevas" (ou DNA não-codificante) e micro-RNA moléculas. O estudo foi publicado na revista Proceedings of National Academy of Sciences (PNAS).

Células do corpo humano têm um genoma (o conjunto do nosso DNA) codificação das nossas proteínas, como queratina na pele ou hemoglobina no sangue. Este genoma com DNA de codificação representa apenas os 5% do nosso material genético. Os restantes 95% é chamado de 'dark genoma' ou DNA não-codificante e seu papel é em grande parte desconhecido. Parte desse DNA produz pequenas moléculas carregadas, chamadas micro-RNAs que ativa ou desativa genes. Nos últimos anos tem sido demonstrado que as alterações nessas moléculas estão relacionadas com o aparecimento do tumor.


Enoxacina
Pesquisadores demonstraram que uma pequena molécula chamada enoxacina, usado em compostos antibacterianos, se liga à proteína que constrói micro-RNA e estimula sua atividade inibitória do crescimento do tumor. De acordo com a pesquisadora Manel Esteller, que "é como se nós temos um carro em segunda mão e colocamos em um novo motor".


A molécula foi testada tanto em células de laboratório e em modelos animais e, agora, seu comportamento deve ser estudado em seres humanos. Esteller salienta que a vantagem desse composto é que sabemos o seu metabolismo e sua segurança humana.

Esteller acrescenta que "embora o uso desta molécula pode não ser aprovado no tratamento do câncer, esta descoberta abre a porta para projetar novos medicamentos que usam microRNA como alvo terapêutico. Mostramos a indústria farmacêutica uma nova direção para onde direcionar seus esforços no combate do tumor."

http://www.news-medical.net/news/20110301/7507/Portuguese.aspx

Jenifer Saueressig




Exoplanetas!

Um exoplaneta (ou planeta extra-solar) é um planeta que orbita uma estrela que não seja o Sol e, desta forma, pertence a um sistema planetário distinto do nosso.


Embora a existência de sistemas planetários há muito tem sido de aventado, até a década de 1990 nenhum planeta ao redor de estrelas da sequência principal havia sido descoberto. Todavia, desde então, algumas perturbações em torno da estrela atribuídas a exoplanetas gigantes vêm sendo descobertas com telescópios mais possantes. Mesmo por estimativas, as observações cada vez mais frequentes de exoplanetas gigantes reforçam a possibilidade de que alguns desses sistemas planetários possam conter planetas menores e consequentemente abrigar vida extraterrestre. Até 2008, já haviam sido catalogados mais de duzentos planetas extra-solares, mas a maioria indicou sempre condições inóspitas à existência de vida tal como é concebida em nosso planeta. Os planetas detectados até agora são, em sua maioria, do tamanho ou maior do que Júpiter, e giram na maioria das vezes em órbitas muito próximas da estrela-mãe. Entretanto, os cientistas acreditam que isso se deve a limitações nas técnicas de detecção de planetas, e não porque essas condições sejam mais comuns.


http://pt.wikipedia.org/wiki/Exoplaneta

Jenifer Saueressig