Esta foi a sua vida

Biblia

domingo, 10 de abril de 2016

arrebatamento da igreja já

terça-feira, 26 de janeiro de 2016

Quatro cenários de 'fim do mundo' previstos por Stephen Hawking

Quatro cenários de 'fim do mundo' previstos por Stephen Hawking Há 2 horas Compartilhar PAImage copyrightPA Image caption Hawking já alertou várias vezes para a possibilidade de a própria humanidade desencadear o fim do mundo A humanidade corre o risco de ser extinta graças a perigos criados por ela mesma, segundo o físico britânico Stephen Hawking. Hawking foi o convidado deste ano das chamadas Reith Lectures – evento que desde 1948 convida pessoas de projeção pública para uma série anual de palestras transmitida pela emissora de rádio BBC Radio 4. Segundo o cientista, existem quatro cenários possíveis para um fim do mundo criado pela própria humanidade. E o progresso na ciência e tecnologia criará "novas formas de as coisas darem errado". "Apesar de serem baixas as possibilidades de um desastre no planeta Terra em um ano qualquer, isso vai se acumulando com o tempo e se transforma em uma quase certeza para os próximos mil ou dez mil anos", disse Hawking. Leia também: Por que o iPhone e a China preocupam a Apple Siga a BBC Brasil no Facebook e no Twitter Saltar o tocador de mídiaAjuda do tocador de mídiaFora do tocador de mídia. Pressione enter para voltar ou tab para continuar. Hawking já fez vários alertas antes a respeito dos perigos que a humanidade estava criando. Veja abaixo os quatro possíveis motivos para um fim do mundo, segundo a opinião do cientista. 1) Inteligência artificial Foto: Moviestore/Rex/Shutterstock Image caption O clássico de Kubrick, '2001: Uma Odisseia no Espaço' já previa um computador com inteligência artificial que saía de controle (Foto: Moviestore/Rex/Shutterstock) Stephen Hawking acredita que os esforços para criar máquinas que pensem sozinhas são uma ameaça à nossa existência. "O desenvolvimento de uma inteligência artificial total (AI) pode levar ao fim da raça humana", disse o físico à BBC em 2014. Segundo ele, as formas primitivas de inteligência artificial desenvolvidas até o momento já provaram ser úteis, mas Hawking teme as consequências de se criar algo que possa se igualar ou até superar os humanos. "(As máquinas) iriam evoluir sozinhas, refazer o próprio projeto a uma velocidade cada vez maior. Humanos, que são limitados por uma evolução biológica lenta, não poderiam competir e seriam substituídos." Hawking não é o único que teme a inteligência artificial. O cinema americano já tratou a questão como uma ameaça em vários filmes como 2001: Uma Odisseia no Espaço (de 1968), Bladerunner (de 1982), a série de filmes O Exterminador do Futuro, entre outros. Leia também: A misteriosa estrutura espacial gigante invisível que intriga astrônomos 2) Guerra nuclear Nasa Image caption O poder das armas nucleares aumentou muito desde os primeiros testes na década de 1950 (Foto: Nasa) Se as máquinas não nos matarem, nós poderemos fazer isso por conta própria. "O fracasso humano que eu mais gostaria de corrigir é a agressão", disse Hawking em uma palestra no Museu da Ciência de Londres, em 2015. "Pode ter sido uma vantagem para a sobrevivência na época dos homens das cavernas, para conseguir mais comida, território ou parceiros para reprodução, mas agora é uma ameaça que pode destruir todos nós." As armas de destruição em massa atuais são capazes de acabar com a vida na Terra, e a proliferação dos arsenais nucleares é uma grande preocupação mundial. "Uma grande guerra mundial significaria o fim da civilização e talvez o fim da raça humana", disse Hawking. 3) Vírus criado por engenharia genética AP/ArquivoImage copyright Image caption Segundo Hawking, vírus criados em pequenos laboratórios podem dar grande dor de cabeça futura à humanidade (AP/Arquivo) E as armas nucleares podem não ser a pior ameaça entre as invenções da humanidade. Em 2001, Hawking disse ao jornal britânico Daily Telegraph que a raça humana enfrenta a perspectiva de ser exterminada por um vírus criado por ela mesma. "No longo prazo, fico mais preocupado com a biologia. Armas nucleares precisam de instalações grandes, mas engenharia genética pode ser feita em um pequeno laboratório. Você não consegue regulamentar cada laboratório do mundo. O perigo é que, seja por um acidente ou algo planejado, criemos um vírus que possa nos destruir", disse o cientista ao jornal. "Não acho que a raça humana vai sobreviver aos próximos mil anos, a não ser que nos espalhemos pelo espaço. Há muitos acidentes que podem afetar a vida em um único planeta." Novamente, temores como esse já foram retratados por Hollywood. Filmes como 12 Macacos, Eu Sou A Lenda e a série Resident Evil são apenas alguns dos que mostram um cenário no qual vírus feitos pelos homens destroem a sociedade. 4) Aquecimento global Nasa Image caption Para o cientista, se aquecimento global continuar, a Terra corre o risco de ficar parecida com Vênus (Foto: Nasa) Stephen Hawking descreveu um cenário futurístico apocalíptico no documentário A Última Hora, de 2007. "Uma das consequências mais graves de nossas ações é o aquecimento global, causado pela emissão de crescentes níveis de dióxido de carbono resultantes da queima de combustíveis fósseis. O perigo é que o aumento da temperatura se transforme em (um processo) autossustentável, se é que já não está assim." "Secas e devastação de florestas estão reduzindo a quantidade de CO2 que é reciclada na atmosfera", afirmou. "Além disso, o derretimento das calotas polares vai reduzir a quantidade de energia solar refletida de volta para o espaço e assim aumentar ainda mais a temperatura. Não sabemos se o aquecimento global vai parar, mas o pior cenário possível é que a Terra se transforme em um planeta como Vênus, com uma temperatura de 250 graus na superfície e chuvas de ácido sulfúrico." "A raça humana não pode sobreviver nestas condições", acrescentou. Leia também: Que navegador para celular usar? Os pontos positivos e negativos de cada um