Essays.club - TCC, Modelos de monografias, Trabalhos de universidades, Ensaios, Bibliografias
Pesquisar

A Utilização de Big Data no LHC

Por:   •  21/6/2018  •  2.226 Palavras (9 Páginas)  •  504 Visualizações

Página 1 de 9

...

As vantagens de aplicações utilizando a tecnologia Big Data são muitas e variam desde a proporcionar melhor manuseio de informações importantes para uma empresa crescer no mercado, até a análise de uma imensa quantidade de dados em pesquisas de física quântica, como será abordado posteriormente.

- O LHC (Large Hadron Collider)

Como descrito por Las Casas (2010), o Grande Colisor de Hádrons, do CERN (Organização Européia de Pesquisa Nuclear), é o maior acelerador de partículas do mundo. Localizado na fronteira entre a França e a Suíça, próximo a Genebra, é formado por uma estrutura em forma de túnel circular que possui 27 km de comprimento e se situa a aproximadamente 100 metros abaixo do solo, onde ocorrem experimentos envolvendo colisões de partículas, com o principal objetivo de encontrar e descobrir eventos a partir dessas colisões, como novas partículas elementares. O LHC começou a ser construído em 1998, mas só foi inaugurado e entrou em atividade em 2008, tendo como primeiro evento, uma colisão de prótons em 2010.

De acordo com Lundstedt (2010), um acelerador de partículas é uma máquina que trabalha gerando uma energia muito alta a um feixe de partículas subatômicas eletricamente carregadas, de forma com que essa energia as acelere. No LHC, isso ocorre em um túnel circular que é dividido em quatro partes principais, com nomes Atlas, CMS, LHCb e Alice, cada um com uma função dentro dos experimentos realizados.

A importância do LHC é muito grande, pois é de lá que estão saindo as respostas mais significativas para perguntas sobre todas as partículas conhecidas e desconhecidas que formam o universo. É um dos meios que cientistas procuram para “explicar nossa existência”. Um exemplo recente é a descoberta do Bóson de Higgs, considerado umas das descobertas mais importantes da história da ciência. De acordo com O Globo (2013),

É uma partícula subatômica, isto é, um dos mais fundamentais elementos do Universo. Ele nunca havia sido observado antes em experiências. O Bóson de Higgs é parte do chamado Modelo Fundamental da física, que como todas as demais partículas têm massa. Segundo a teoria, logo após o surgimento do Universo, no Big Bang, existiu uma força invisível conhecida como campo de Higgs. Essa força se formou junto com o Bóson do mesmo nome e abriu caminho para que as demais partículas ganhassem massa.

O conhecimento adquirido a partir desses experimentos realizados no Grande Colisor de Hádrons é essencial para o avanço da física moderna. Entretanto, para que tudo saia como planejado é preciso ter o máximo de recursos necessários para lidar com tantas informações que são emitidas a cada evento físico ocorrido no LHC. Um dos fatores mais importantes referentes às pesquisas sobre partículas elementares no CERN é a coleta e armazenamentos de dados científicos, e por isso é preciso sempre de novas tecnologias voltadas para a área de dados e informações. É neste momento que entra em cena o conceito “Big Data”.

- A influência do Big Data para o LHC

Como descrito pelo centro de comunicações do CERN (2008), para cumprir seus propósitos, o LHC utiliza-se de seis detectores, cada um com sua especificidade:

-A Toroidal LHC ApparatuS (ATLAS) e Solenóide Compacto de Múons (CMS) são detectores de propósitos gerais, capazes de detectar o percurso das partículas, sua energia e medir subpartículas decorrentes da colisão;

-A Large Ion Collider Experiment (ALICE) tem como propósito estudar as condições criadas logo após a ocorrência do Big Bang através da manipulação de íons de ferro;

-Large Hadron Collider beauty (LHCb) conta com uma série de subtectores precisos, que têm a finalidade de observar a antimatéria;

-TOTal Elastic and diffractive cross section Measurement (TOTEM) é capaz de medir a precisão da produção das colisões no acelerador e o tamanho dos prótons;

-Large Hadron Collider forward (LHCf) possibilita experimentos para o estudo de colisões naturais de raios cósmicos.

Todos esses mecanismos tornam o colisor o maior mecanismo de pesquisa da física moderna. Entretanto, as experiências conduzidas no LHC podem ocasionar fenômenos momentâneos, partículas que permanecem em um estado especulado por um período ínfimo e em geral voltam a um estado anterior, mais estável. Por isto, é necessário que se tenha uma gama de parâmetros capazes de medir a maior quantidade possível de dados dos fenômenos ocorridos no menor tempo possível. Desse modo, quando o acelerador de partículas está em funcionamento, os detectores obtém uma gigante quantidade de informação de tudo o que está ocorrendo, assim, os experimentos momentâneos podem ser estudados sob a mais completa análise posteriormente.

De acordo com um artigo do Géant2 (2006), 15 petabytes de dados eram recolhidos anualmente, o que já gerava grandes dificuldades de processamento. Hoje em dia, porém, são gerados 30 petabytes nesse mesmo período de tempo.

O gerenciamento de todos os dados está, portanto, submetido ao campo do Big Data, pois o entendimento dos experimentos do LHC estabelece uma necessária ligação com a interpretação de todo o volume de dados gerados.

- Análise de dados

Com tantas novas tecnologias emergentes atualmente, fica cada dia mais difícil o manuseio de informações que fluem, por exemplo, em um estabelecimento comercial. Segundo o futurista italiano Vito di Bari, em 2020, produziremos a quantidade de dados que a humanidade produziu em 18 mil anos, até 2001 (5 exabytes), em apenas 18 minutos, fato demonstrado pelo gráfico 1. Isso evidencia a necessidade de sistemas com Big Data.

[pic 1]

O Grande Colisor de Partículas sempre precisou de potentes computadores que poderiam suprir a demanda de armazenamento e processamento de seus dados, porém, mantém-se em constante evolução e mais dados são gerados a cada ano. A recente descoberta do Bóson de Higgs (Figura 1) é reflexo dos resultados obtidos na manipulação de grandes dados, só sendo possível devido aos 60 petabytes (60 milhões de gigabytes) produzidos ao longo de pesquisas e às técnicas que permitiram sua compreensão. Como dito anteriormente, os dados são recolhidos em partes distintas do LHC, como mostra o gráfico 2.

Figura 1. Uma das seções do LHC, o grande colisor de hádrons, onde foi realizada a descoberta da massa do Bóson de

...

Baixar como  txt (14.9 Kb)   pdf (63 Kb)   docx (18.7 Kb)  
Continuar por mais 8 páginas »
Disponível apenas no Essays.club