Teadlased Kasutavad Vähem Kui 1% Suure Hadron Collideri Kogutud Andmetest - Alternatiivne Vaade

Teadlased Kasutavad Vähem Kui 1% Suure Hadron Collideri Kogutud Andmetest - Alternatiivne Vaade
Teadlased Kasutavad Vähem Kui 1% Suure Hadron Collideri Kogutud Andmetest - Alternatiivne Vaade

Video: Teadlased Kasutavad Vähem Kui 1% Suure Hadron Collideri Kogutud Andmetest - Alternatiivne Vaade

Video: Teadlased Kasutavad Vähem Kui 1% Suure Hadron Collideri Kogutud Andmetest - Alternatiivne Vaade
Video: Брайан Кокс про суперколлайдер ЦЕРНа 2024, Aprill
Anonim

Kui teaduslike andmete saamine on probleem, on selge. Kuid selgub, et nende salvestamiseks ja töötlemiseks on probleem.

Kogu põrkeseadmega tehtud kõrgetasemeliste avastuste seeria põhines andmete analüüsil, mille maht moodustab alla ühe protsendi genereeritud andmete kogumahust.

Ülejäänud andmed kaotatakse pöördumatult.

26,7-kilomeetrist põrketunnelit kasutatakse osakeste kiirendamiseks valguse kiiruse lähedal. Kaks vastassuunas liikuvat osakestevoogu põrkuvad tundlike andurite poolt jälgitavates kosmose punktides. Isegi madalaima tihedusega prootonkiirte korral, milles igaüks sisaldab 120 miljardit prootonit, on põrkumiste arv 30 miljonit kokkupõrget sekundis.

Euroopa Tuumauuringute Organisatsiooni CERN veebisaidil avaldatud teabe kohaselt tekitab miljard kokkupõrget sekundis andmevoogu 1 petabaiti sekundis. Ja see on praegu suurim probleem, kuna sellise kiirusega andmevoogu on lihtsalt võimatu talletada, rääkimata selle nõuetekohasest töötlemisest. „Tüüpilise 12-tunnise põrkefaasi tulemuste talletamiseks on meil vaja vähemalt 2000 petabaiti vähemalt 30 miljoni kokkupõrke korral. 150 põrkeseadme käivitamise korral aastas kulub kõigi andmete salvestamiseks 400 000 petabaiti, 400 eksabyiti, see on tohutu maht, mida me praegu isegi ei saa salvestada,”ütleb CERNi teadlane Andreas Hoecker.

Lahendus suure hulga andmete probleemile on muidugi nende mahu järsk vähendamine. Ja seda ei tehta ühegi teabe pakkimisalgoritmi arvelt, selleks pole olemasolevate superarvutite kõigi protsessorite jaoks piisavalt jõudu. CERNis saadaolevad arvutitehnoloogia võimalused võimaldavad salvestada vaid 30 kokkupõrke tulemusi iga 30 miljoni sellise juhtumi kohta. See on 0,004 protsenti kogumahust ja ülejäänud 99,996 protsenti, nagu eespool mainitud, on igaveseks kadunud.

Image
Image

See asjade seis näib kohutava raiskamisena, kuid kõik pole nii kurb. Nähtusi, mis teadlastele tõeliselt huvi pakuvad, sellise kiirusega ei teki. Näiteks ilmub Higgsi boson kiirusega üks kord sekundis, teised sündmused toimuvad aga kümneid või sadu kordi sekundis. Kogu andmevoo kõige huvitavama esiletõstmiseks on kaasatud spetsiaalsed "päästikud" - seadmed, mis teostavad esialgset andmete filtreerimist peamiselt riistvara tasemel. Need päästikud on välja töötatud iga konkreetse juhtumi jaoks ja häälestatud vastavalt otsitavate osakeste omadustele, näiteks Higgsi boson, tõeline kvark, W ja Z boson jne.

Reklaamvideo:

Muidugi, sellise esialgse andmetöötluse juurutamisega kaob osa huvitavaid andmeid koos ebavajaliku ja ebahuvitava "prügi" mäega. Kuid järelejäänud teave sisaldab peamiselt olulisi andmeid ja selle suhteliselt tagasihoidlik maht võimaldab juba reaalajas piisavalt põhjalikku töötlemist.

Ja kokkuvõtteks tuleb märkida, et ülalkirjeldatud probleemi lahendus ei taga mingil juhul võimalust kasutada enamasti kasutuid andmeid. Probleemi lahendus on põrkeseadme jaoks uute andurite loomine, mis kasutavad kaasaegsete tehnoloogiate uusimaid saavutusi ja mis suudavad tungida füüsika praegu veel uurimata alade sügavustesse. Muide, mõned neist anduritest ilmuvad kokkupõrkesse selle järgmise moderniseerimise käigus, mis praegu toimub. Ja moderniseeritud põrkeseadme käivitamine on kavandatud aastaks 2025.

Soovitatav: