Maller Péter\(^1\), Forgács-Dajka Emese\(^1\), Berényi Dániel\(^2\)
- Eötvös Loránd Tudományegyetem
- Freelancer
Kivonat: A projekt fő célja egy ismert Babcock-Leighton napdinamó modell párhuzamosítása, melynek segítségével tanulmányozható a Nap globális mágneses terének fejlődése, így a napaktivitás. A napaktivitás előrejelzése jelenleg is kihívásokat tartogat, hiszen a háttérben egy kváziperiodikus, stochasztikus folyamat húzódik. Ráadásul a mögöttes fizikát leíró dinamó a mai napig az asztrofizika nagy megoldatlan problémáinak egyike. Ez persze nem jelenti azt, hogy nincsenek elképzeléseink vagy akár modelljeink a mágneses tér fejlődésével kapcsolatban, de további vizsgálatokat és fejlesztéseket kívánnak ezek a modellek.
Az általunk készített numerikus kód alapját egy korábban megírt, több évtizede fejlesztett Fortran nyelven írt program adta, ahol a korszerűsítést több dolog is motiválta: egyrészt a sokak által, hosszú időn át írt kódban vannak redundanciák, de akár olyan részek is, melyek már nyilvánvalóan feleslegesek, másrészt a kód szerkezete, felépítése miatt nehézkes a további fejlesztés. Így elsőként az volt a célunk, hogy a munka során a korábbi kódot optimalizáljuk és refaktoráljuk, melyhez a C programozási nyelvet választottuk. Ezután szeretnénk elvégezni a kód párhuzamosítását is, melyhez a CUDA keretrendszert használjuk. A párhuzamosítás által elérhető futási idő csökkenés átfogó elemzéseket tesz lehetővé: vizsgálhatjuk a mágneses tér több komponensének fejlődését nagyobb térbeli felbontásban, de feltérképezhetjük a modell paraméterterét is. Céljaink között szerepel különböző numerikus módszerek - mint például az ADI (Alternating-Direction Implicit) és az FTCS (Forward Time-Centered Space) - összehasonlítása is. Összességében a projekt megvalósítása során szeretnénk megvizsgálni a különböző lehetőségeket, hogy kiválaszthassuk a megfelelő kompromisszumos megoldást a teljesítmény, pontosság és későbbi fejlesztések tekintetében.
Legeza Örs (2023.11.01 - 2024.04.30)
Wigner Fizikai Kutatóközpont
Publikációk:
[1] Parallel implementation of the Density Matrix Renormalization Group method achieving a quarter petaFLOPS performance on a single DGX-H100 GPU node
[2] Two-dimensional quantum lattice models via mode optimized hybrid CPU-GPU density matrix renormalization group method
[3] Boosting the effective performance of massively parallel tensor network state algorithms on hybrid CPU-GPU based architectures via non-Abelian symmetries
[4] Massively Parallel Tensor Network State Algorithms on Hybrid CPU-GPU Based Architectures
Kivonat: Az olyan kvantumos rendszerek numerikus szimulációja, melyekben az atomi spinek vagy mozgékony elektronok közötti kölcsönhatás erős és nem lehet leírni ún. perturbációs módszerekkel a modern fizika középpontjában állnak. Ez azonban igen nagy kihívást jelent mert a számítógépes erőforrás általánosságban exponenciálisan skálázódik a rendszer méretével. Olyan algoritmusok kidolgozása, melyeknél ez polinomiális alakra hozható napjaink egyik legintenzívebben kutatott tudományterületének számít.
A sűrűségmátrix renormálási csoport (DMRG) algoritmus éppen egy ilyen módszer, aminek további nagy előnye, hogy a vonatkozó tenzor algebra a megmaradó kvantumszámok tükrében akár egymástól több millió független részfeladatra bontható. Mindez ideális környezetet biztosít MPI és GPU alapú masszív párhuzamosításhoz. A 2021-2022-es év során hibrid CPU és többszörös GPUval gyorsított alkalmazásainkkal már számos kvantumos rendszerre végeztünk szimulációkat, mely eredméneyinkből két kéziart is elérhető az arXiv-on:
[1] Massively Parallel Tensor Network State Algorithms on Hybrid CPU-GPU Based Architectures, Andor Menczer, Örs Legeza, arXiv:2305.05581 (2023)
[2] Boosting the effective performance of massively parallel tensor network state algorithms on hybrid CPU-GPU based architectures via non-Abelian symmetries, Andor Menczer, Örs Legeza, arXiv:2309.16724 (2023)
Az [1] publikációban a GPU Labor a köszönetnyilvánításban is szerepel mert az eredmények egy része a projekt első fázisa alatt készült. A jelen projektben (második fázis) ezeket kívánjuk tovább tesztelni és a hatékonysági tesztek alapján tovább optimalizálni az A100-as GPU infrastukturát használva. A tesztek eredményei alapján a [2] publikáció bizonyos adatpontjait tervezzük bővíteni.
Szigeti Balázs, Szapudi István, Barna Imre, Barnaföldi Gergely Gábor (2024.08.01-2024.10.30.)
Kivonat: A Hubble állandó az Univerzum tágulásának mértékét meghatározó mennyiség. Jelenleg a különböző vöröseltolódású kísérleti mérések más-más értéket adnak meg erre -- amely problémát a Hubble puzzlenek hívja a szakirodalom. Javasltunk szerint Gödel-inspirált, forgó univerzum modellben a mért értékek közötti eltérés jól magyarázható a forgás bevezetésével. Önhasonló megoldással a lassan forgó sötét-anyag modellel mindez kiszámítható, és a kapott forgásra a \(\omega_0 \simeq 2\times 10^{-3}\)~Gyr\(^{-1}\) érték adódik.
Aneta Magdalena Wojnar, Horváth Anna, Barnaföldi Gergely Gábor (2024.08.01-2024.10.30.)
Kivonat: A Heisenberg-féle határozatlansági reláció módosul erős gravitációs mezőben. Kutatásunk során azt vizsgáljuk, hogy a kompaktifikált extra dimenziót tartalmazó 5-dimenziós Kaluza--Klein téridő modellben, hogyan jelenik meg ez az effektus.
Horváth Anna [1,2], Barnaföldi Gergely Gábor [1], Forgács-Dajka Emese
[2] (2024.09.01-12.31)
[1] Wigner Fizikai Kutatóközpont [2] Eötvös Loránd Tudományegyetem
Kivonat: Kompakt csillagok vizsgálatát végezzük egy statikus, gömbszimmetrikus Kaluza-Klein-szerű elméletben, amiben több extra dimenzó jelenlétét is vizsgálkuk a korábbi kutatások fényében. Állapotegyenletet hozunk létre, mely a Tolman-Oppenheimer-Volkov egyenlettel együtt alkalmas neutron csillagok modellezésére. Ezen objektumok szerkezetének szimulálása (a fő mérhető fizikai tulajdonságaik, azaz a tömeg és a sugár kiszámítása), valamint egy alapos analízis kivitelezése megköveteli, hogy számításigényes programokat használjunk. Ez a projekt a részecskefizika standard modelljén túli elméleteket tesztel, különös tekintettel egy lehetséges extra kompaktifizált térdimenzió méretének a megszorítására.
Neelkamal Mallick [1], Suraj Prasad [1], Aditya Nath Mishra [2,4], Raghunath Sahoo [1] and Gergely Gábor Barnaföldi [3] (2024.05.01 - 2024.08.31)
[1] Department of Physics, Indian Institute of Technology Indore [2] Department of Physics, School of Applied Sciences, REVA University [3] Wigner Research Center for Physics [4] Department of Physics, University Centre For Research & Development (UCRD), Chandigarh University
Kivonat: A nucleus having 4n number of nucleons, such as 8Be, 12C, 16O, etc., is theorized to possess clusters of α particles (4He nucleus). In this study, we exploit the anisotropic flow coefficients to discern the effects of an \(\alpha\)-clustered nuclear geometry w.r.t. a Woods-Saxon nuclear distribution at \(\sqrt{s_{NN}} = 7\) TeV LHC energy.
Jakovác Antal, Horváth Anna, Dudás Bence (2024.07.01-09.30)
Kivonat: A projekt keretében környezeti hang minták mesterséges intelligencia alapú vizsgálata, alkalmazott kutatásokhoz.
Dániel Léber, Ormos Mihály (2024.07.01-09.30)
Kivonat: A tanulmányban az entrópiára, mint kockázati mértékére összpontosítunk, és arra, hogy milyen szerepet játszhat az egyensúlyi eszközárazásban. A hagyományosan használt tőkeeszközárazási modellhez (CAPM) hasonlóan az entrópia is felbontható kölcsönös (pénzügyekben a tovább már nem-diverzifikálható kockázat mérőszáma) és feltételes (pénzügyekben a piaci portfólióval való egyűt mozgás mérőszáma) entrópiákra. Megvizsgáljuk, hogy mi a kapcsolat ezek és a hagyományosan használt kockázati mérőszámok, mint a szórás és a béta között. Javaslatot teszünk továbbá egy jobb illeszkedésre és az eszközárazások ismert megoldatlan anomáliáira. Az OpenBB adatbázis és Kenneth R. French adatkönyvtár felhasználásával az S&P500 indexben található egyedi részvények adatait vizsgáljuk a napi hozamok és a hozzájuk kapcsolódó különböző kockázati mértékek kiszámításához. Bemutatjuk a különböző kockázati mértékek diverzifikációs hatásait és azok időbeli stabilitását is. Összességében egy entrópia alapú új módszert vezetünk be az eszközök egyéni és rendszerszintű kockázatainak elkülönítésére. Modellünket a CAPM-modell hagyományos tesztjével is validáljuk és a regresszión alapuló eredményeinket mind mintán belül, mind mintán kívül teszteljük. Modellünk robusztusságát továbbá keresztvalidálással és időbeli csúszó ablakok használatával egyaránt értékeljük.
Zoltán Lehóczky, Márk Bartha (2024.01.01 - 05.31)
Lombiq Ltd.
Link: GPU Day Chase Study
Abstract: GPU Day is a conference organized by the Wigner Scientific Computational Laboratory that focuses on massively parallel computing, visualization, and data analysis in both scientific and industrial applications. We also presented our Hastlayer .NET hardware accelerator project many times there too.
The website serves as an information hub for these annual conferences. It was initially running on Orchard 1 DotNest, but now it was time to migrate it to Orchard Core. While these migrations always come with certain challenges due to the new features introduced in Orchard Core, we tried to keep things easy by not changing the frontend of the site, even though it's somewhat outdated.
Szabó, Vencel (ELTE); Barbola, Milán Gábor (ELTE); Méhes, Máté (ELTE); Gábor Papp (ELTE), Bíró, Gábor (Wigner); Jólesz, Zsófia (ELTE-Wigner); Dudás, Bence (ELTE-Wigner) (2024.03.01 - 2024.06.30)
Kivonat: A proton computer tomográfia (pCT) abban különbözik a "hagyományos" foton alapú tomográfiától, hogy különbözik az alapreakció: míg a pCT esetében a kis szögű Coulomb szórás a domináns reakció, addig a foton CT-ben a bejövő foton elnyelődik, és a teljes energiáját leadja. Ez a különbség teszi nehézzé a pCT-ben a kép visszaszámolását.
A projekt során a hallgatók legenerálják a pCT algoritmushoz szükséges bemenő adatokat, mely feladat során masszívan futtatják a GATE szimulációs szoftver különböző phantomokon. A richardson-Lucy algoritmus alapján próbálják meg visszaállítani a phantom képét, közben tesztelve, hogy mekkora szög- illetve pozíció felbontásra van szükség az elfogadható kép előállításához. További tervek a Richardson-Lucy algoritmus optimalizálása GPU clustrre, a számolási sebesség felgyorsítására. További terv a pCT bemenő legyártása a detektor kimenet alapján.
Kadlecsik Ádám (2023.11.01 - 2024.03.31)
Eötvös Loránd Tudományegyetem
Kivonat: Az ismert kisebb méretű, s ezért valószínűleg szilárd felszínnel rendelkező exobolygók jellemzően nagyon közel keringenek központi csillagukhoz – éppen ezzel könnyítve meg felfedezésüket a Földről illetve űreszközökről. Így keringésük mindenképpen kötött kell hogy legyen, vagyis az ilyen exobolygókon a központi csillaguk körüli keringés („év”) és a tengely körüli fordulat („nap”) időtartama megegyezik. A kötött keringés miatt a központi csillag mindig a bolygó ugyanazon oldalát világítja meg, vagyis az égitestnek létezik egy permanens nappali és éjszakai oldala. Az áramlási rendszer tehát egy olyan forgatott elrendezésben modellezhető, amelynek oldalsó, a légkör modelljéül szolgáló vízréteggel együtt forgó külső peremén előírunk azimutális irányban egy dipól-szerű hőfluxus-peremfeltételt. Mindezt kísérletileg és szimulációs módszerekkel is szeretnénk vizsgálni.
Ákos Gellért[1,2] , Oz Kilim[1] , Anikó Mentes[1] and István Csabai[1] (2023.02.15 - 2023.12.15)
[1] ELTE Department of Physics of Complex Systems [2] ELKH Veterinary Medical Research Institute
Kivonat: The first recorded pandemic of the flu occurred in 1580 and since then, flu pandemics have occurred several times throughout history, with the most severe being the Spanish flu in 1918-1919 which killed millions of people worldwide. In the 20th century, significant progress was made in the understanding of the virus and the development of vaccines, which have greatly reduced the impact of flu pandemics. Despite this progress, the flu continues to be a major public health issue, with millions of cases reported each year and an annual death toll in the tens of thousands.
Hemagglutinin, a surface membrane protein of the Influenza virus plays an important role in the infection process of the virus, as it allows the virus to attach to and penetrate host cells. The flu vaccine is formulated each year based on which strains of the virus are predicted to be most prevalent, and it is designed to stimulate the body's immune response to the hemagglutinin protein on those strains. Many antigenic maps have been constructed this far, which reveal the relationships between different strains of a virus, specifically with regards to the way their antigens [1] (e.g., hemagglutinin) are recognized by the immune system. Experimental Influenza HA deep mutational data [2] are also available for the research community to explore the virus functions.
In this project, we aim to in silico combine antigenic maps and deep mutational scanning data to obtain a more comprehensive understanding of the evolution and functional properties of Influenza virus. For example, combining antigenic map data with deep mutational scanning data can provide information about how different mutations affect the ability of a virus to evade the immune response, as well as which regions of the virus are critical for this evasion. This information can be used to inform the design of vaccines and antiviral drugs that target specific regions of the virus that are critical for its function and evolution. We will use AlphaFold2 [3] and ESMFold2 [4] the fastest AI based and most reliable protein structure prediction applications in the world to generate single and/or multiple mutant structures of various Influenza HA protein.
[1] Antigenic map. [2] Flu HA DMS.. [3] J. Jumper et al., “Highly accurate protein structure prediction with AlphaFold,” Nat. 2021 5967873, vol. 596, no. 7873, pp. 583–589, Jul. 2021, doi: 10.1038/s41586-021-03819-2. [4] ESMFold.