Projekt Centrum Zastosowań Matematyki został zakończony w 2015 roku
Projekt Centrum Zastosowań Matematyki został zakończony w 2015 roku. W latach 2012-2015 zorganizowaliśmy 5 konferencji, 6 warsztatów tematycznych oraz 3 konkursy...
Start » Baza wiedzy »
[PDF]
Pojęcie dyfuzji służy do opisu zjawisk fizycznych (przenikanie się gazów, przepływ ciepła), chemicznych (wyrównywanie stężeń), biologicznych (osmoza, modele ekologiczne), medyczne (oddychanie), a nawet społecznych czy ekonomicznych. Pojawia się zatem w wielu różnych naukach, a modelowana jest przy użyciu różnych koncepcji matematycznych. Podstawowe, a dzisiaj już klasyczne, prawa dyfuzji zostały sformułowane przez niemieckiego fizjologa, fizyka i matematyka Adolfa Ficka w połowie XIX wieku w języku analizy wektorowej i równań różniczkowych. Inne podejście wykorzystuje koncepcję błądzenia losowego odkrytego w pierwszej połowie XIX wieku przez Roberta Browna (ruchy Browna). Teoria ruchów Browna była potem rozwijana przez wielu matematyków i fizyków, w tym również przez samego Alberta Einsteina, który wyprowadził równanie dyfuzji dla cząstki w ruchu Browna. Najprostsze i zarazem najbardziej naturalne uogólnienia równania dyfuzji stanowią układy reakcji-dyfuzji, które oprócz składnika dyfuzji zawierają składnik reakcji uwzględniający możliwość przemiany jednej substancji w drugą. Zjawiska modelowane za pomocą równań reakcji-dyfuzji i występują naturalnie w chemii, ale także w biologii i ekologii. Najprostsze jednowymiarowe wersje równania reakcji-dyfuzji były badane przez Kołmogorowa, Petrowskiego i Piskuna oraz Fishera (biologiczne modele rozprzestrzeniania się populacji) w pierwszej połowie XX wieku. Badanie dwuwymiarowych układów reakcji-dyfuzji rozpoczął w drugiej połowie XX wieku Alan Turing, który jako pierwszy zaobserwował, że w dwóch wymiarach stan stabilny w układzie bez dyfuzji może utracić stabilność po uwzględnieniu składnika dyfuzji. Rozwiązania równań reakcji-dyfuzji przejawiają szeroką skalę zachowań, włączając w to tworzenie się fal biologicznych, którym poświęcony będzie mój wykład.
Tytuł własnego wykładu:
[PDF]
Modele matematyczne reakcji biochemicznych są bardzo różnorodne: od prostych układów składających się z kilku równań różniczkowych zwyczajnych poprzez rozbudowane układy kilkudziesięciu lub kilkuset równań, do modeli zawierających równania z opóźnionym argumentem i równania różniczkowe cząstkowe. Za ich pomocą są modelowane zarówno stosunkowo proste zjawiska, na przykład produkcji i degradacji białka, jak i niezwykle skomplikowane ścieżki sygnałowe. O ile modele składające się z kilku równań zwykle poddają się analizie matematycznej, to bardziej skomplikowane modele można analizować praktycznie wyłącznie przy użyciu numeryki. Przykładami w miarę prostych modeli są układy równań opisujące procesy ekspresji genów. Dwa takie modele, jeden dotyczący białka Hes 1 a drugi białka p53, zaproponował w 2003 Monk. W obu modelach występuje jest opóźnienie odzwierciedlające fakt, że procesy transkrypcji i translacji trwają dłużej niż inne procesy uwzględnione w tych modelach. Opóźnienie, w połączeniu z obecnymi w modelach ujemnymi sprzężeniami zwrotnymi, może powodować (dla pewnych zakresów parametrów) pojawianie się stabilnych oscylacji, które są obserwowane doświadczalnie.
W trakcie mojego wykładu opowiem o wpływie opóźnienia na dynamikę modeli reakcji biochemicznych i problemach, które mogą się pojawić gdy do modelowania procesów biochemicznych wykorzystujemy równania z opóźnionym argumentem.
Tytuł własnego wykładu:
[PDF]
Teoria funkcji prawie okresowych rozwijana jest intensywnie od początku dwudziestego wieku. Za jej twórcę uważa się matematyka duńskiego H. Bohra, jakkolwiek pewnych inspiracji do badania prawieokresowości można dopatrywać się już w pracach J.L. Lagrange’a . Przypomnijmy, że funkcje prawie okresowe pojawiają się w klasycznych zagadnieniach mechaniki, kiedy rozważa się składanie drgań o niewspółmiernych okresach. Zwróćmy również uwagę na interesujący fakt, że quasikryształy, z matematycznego punktu widzenia, można opisać, mówiąc nieprecyzyjnie, jako próbki (wzorce) miar prawie okresowych, to znaczy zbiory, których funkcje charakterystyczne definiują miary prawie okresowe.
Napisano już setki prac dotyczących funkcji prawie okresowych, a więc mogłoby się wydawać, że teoria ta jest już bardzo wyeksploatowana. Okazuje się jednak, że szereg podstawowych kwestii w tej teorii nadal pozostaje otwartych. Wystarczy wymienić tutaj problem istnienia prawie okresowych rozwiązań klasycznych nieliniowych równań różniczkowych.
W wykładzie przedstawimy przede wszystkim nowe wyniki dotyczące funkcji prawie okresowych w sensie Lewitana oraz prawie okresowych względem miary Lebesguela. Szczególną uwagę zwrócimy na operatory splotu oraz na rozwiązania klasycznego równania ewolucji w tych przestrzeniach.
Prezentacje:
Ad 1. Jednym z zastosowań układów integrate-and-fire jest modelowanie dynamiki aktywności komórek nerwowych. W tych zazwyczaj jednowymiarowych modelach, dynamika opisywana przez równanie różniczkowe zostaje zaburzona tak zwanym „resetowaniem” do wartości spoczynkowej. We wspominanym na wstępie modelu, resetowanie związane jest ze zjawiskiem generowania potencjału czynnościowego przez neuron, w ogólności natomiast odpowiada sytuacji, gdy układ oscylujący ma praktycznie natychmiastowy czas „relaksacji”. Mimo, iż modele takie są mniej realistyczne (niż na przykład model neuronu Hodgina-Huxley’a), to dzięki swej prostocie są one powszechnie rozważane. Celem wykładu będzie omówienie ogólnych własności układów typu integrate-and-fire, dotyczących w szczególności tak zwanego firing map, to jest odwzorowania stowarzyszonego z wyjściowym układem, którego analiza jest źródłem wielu jakościowych informacji o rozważanym zjawisku. Zainteresowani będziemy głównie sytuacją, gdy funkcja wymuszająca jest okresowa lub prawie okresowa.
Ad 2. Quasikryształy, odkryte przez D. Schechtmana w 1982r. są strukturami, które cechuje pewna regularność, podobna do krystalicznej. To, co je odróżnia, to fakt, iż kryształy tworzą trójwymiarową strukturę okresową, podczas gdy quasikryształy mogą być opisywane jako okresowe dopiero w przestrzeniach wyżej wymiarowych. Podczas wykładu podamy definicję quasikryształu jako wzorca prawie okresowego. W tym celu wprowadzimy pewne uogólnienie funkcji prawie okresowej w sensie Bohra oraz przyjrzymy się miarom prawie okresowym. Okazuje się, że quasikryształy generują pewne uogólnione miary prawie okresowe.
Tytuł własnego wykładu:
[PDF]
Ciekawość człowieka jest tym co nieustannie napędza rozwój, co sprawia, iż budujemy mikroskopy elektronowe, akceleratory cząstek czy sondy kosmiczne. Chcemy wiedzieć! Chcemy poznawać, chcemy zrozumieć.
Do Ziemi nieprzerwanie dociera strumień promieniowania kosmicznego, składający się w przeważającej większości z protonów. Poziom natężenia promieniowania kosmicznego jest ujemnie skorelowany z poziomem aktywności Słońca. Natężenie promieniowania kosmicznego od połowy lat 50 ubiegłego wieku jest rejestrowane na Ziemi dzięki globalnej sieci supermonitorów neutronowych i teleskopów mezonowych. Dane otrzymane z licznych sond kosmicznych pokazują jedynie lokalną sytuację w przestrzeni międzyplanetarnej w okolicach orbity danego próbnika. Natomiast dane o natężeniu galaktycznego promieniowania kosmicznego pobrane z monitorów neutronowych i teleskopów mezonowych charakteryzują globalną sytuację w przestrzeni międzyplanetarnej, dzięki czemu mogą stanowić unikalne narzędzie służące badaniu ogólnych warunków panujących w pobliżu orbity Ziemi. Mogą być traktowane jako uniwersalny wskaźnik występujących w przestrzeni międzyplanetarnej zakłóceń rozchodzących się w dużych obszarach heliosfery.
Transport cząstek promieniowania kosmicznego w heliosferze zachodzi pod wpływem nieustająco ekspandującego od Słońca wiatru słonecznego unoszącego wmrożone pole magnetyczne. Modulacja galaktycznego promieniowania kosmicznego w heliosferze zachodzi w głównej mierze w następstwie fundamentalnych procesów: dyfuzji, konwekcji, dryfów oraz zmiany energii cząstek promieniowania kosmicznego w odpowiedzi na interakcje z wiatrem słonecznym. Do opisu zagadnień słonecznej modulacji promieniowania kosmicznego w różnych skalach czasowych służy równanie transportu Parkera (1965). Jest to niestacjonarne, czterowymiarowe (trzy zmienne przestrzenne oraz energia cząstek promieniowania kosmicznego) równanie różniczkowe cząstkowe II rzędu typu parabolicznego. Rozwiązanie tegoż równania w sposób analityczny jest niemożliwe, a jedynie w sposób numeryczny przy użyciu np. metody różnic skończonych, czy też stochastycznych równań różniczkowych.
Zaletą matematycznego modelowania transportu cząstek galaktycznego promieniowania kosmicznego w heliosferze jest możliwość dokonania porównania wyników rozwiązania numerycznego z rezultatami obserwacji.
Tytuł własnego wykładu:
[PDF]
Zdegenerowane równania eliptyczne i paraboliczne występują w wielu modelach matematycznych matematyki stosowanej. Stosujemy je na przykład w zagadnieniach typu dyfuzji, w równaniach logistycznych matematycznej biologii, w astrofizyce, elektrostatyce, chemii, emkonomii czy w teorii sprężystości. Równania te sprawiają trudności, gdyż często aparat analizy fukcjonalnej uzywany standardowo do dowodzenia istnienia, jednoznaczności czy jakościowych własności rozwiązań jest niewystarczający. Nie jest bowiem jeszcze dobrze rozwinięta teoria przestrzeni typu Sobolewa czy innych przestrzeni funkcyjnych z wagami. Potrzebne są na przykład twierdzenia o zanurzaniu z analizą ich zwartości, twierdzenia śladzie, twierdzenia o przedłużaniu, równoważne charakteryzacje przestrzeni funkcyjnych, teoria multyplikatorów w analizie harmonicznej związana z analizą z wagami, czy analiza na przestrzeniach metrycznych, gdzyż zamiast badań w przestrzeni Euklidesowej możemy mieć do czynienia na przykład z analizą na fraktalach, majacej motywacje na przykład w badaniach meteorologicznych. Celem spotkania byłoby:
a) znalezienie motywacji do badań wynikającej z przedstawienia i analizy konkretnych modeli oraz
b) przedstawienie problemów wynikających z analizy modeli wkraczających w zakres szeroko pojętej analizy, na przykład analizy funkcjonalnej czy harmonicznej.
Tytuł własnego wykładu
Propozycja warsztatów:
Proponuję podzielić wystąpienia na:
Konkretny podział będzie uzależniony od liczby zainteresowanych uczestników.
[PDF]
Równowaga jest dla teorii ekonomii pojęciem podstawowym. Oznacza ona pewien stan niezmienniczy (inwariantny), w którym gospodarka może pozostawać dowolnie długo. W gospodarce konkurencyjnej równowagę zwykle utożsamia się z cenami równowagi, tj. takimi cenami przy których dochodzi do zrównania popytu z podażą, przy czym konsumenci i producenci realizują swoje zamiary; w ekonomii neoklasycznej, a również na gruncie modeli input-output, w równowadze znajduje się gospodarka, która rośnie w sposób równomierny zachowując strukturę i tempo wzrostu (tzw. równowaga wzrostu), etc. Przyjęcie paradygmatu równowagi w ekonomii umożliwia konstrukcję matematycznych obrazów gospodarki (modeli), w których stan równowagi utożsamia się ze stanem stacjonarnym systemu dynamicznego opisywanego przez układ równań (lub ogólniej inkluzji) różniczkowych lub różnicowych. Tak rozumiany stan równowagi jest funkcją parametrów modelu (zwanych parametrów równowagi), dzięki czemu możemy śledzić wpływ parametrów modelu na funkcjonowanie gospodarki, co stwarza szerokie pole zastosowań dla modelowania matematycznego z perspektywy (teorii) ekonomii i podejmowania decyzji. Podstawowym problemem, nawet z punktu widzenia zastosowań, jest zatem istnienie stanu równowagi, który formalnie można traktować jako punkt stały (lub zero) odpowiedniego przekształcenia.
Tytuł własnego wykładu:
[PDF]
Zastosowania metod matematycznych w opisie procesów biologicznych to najczęściej modelowanie dynamiki populacji. Jedną ze szczególnie pożądanych własności dynamiki populacji jest odpowiednio określona, dostosowana do interpretacji w opisie populacji, stabilność układu. W ciągu ostatniego dwudziestolecia zaproponowano kilka sposobów stabilizacji dynamiki opisującej populacje biologiczne pojedynczego gatunku jak i metapopualcji. Metody te poddawano weryfikacji stosując różne modele dynamiki populacji modele i bardzo różne koncepcje stabilności. Należy zwrócić uwagę, iż dynamiki populacji są zależne od historii życia gatunku, rozwoju pokoleń ale także od wpływu innych czynników. Ponadto można rozważać różne rodzaje stabilności wielkości populacji. W celu utrzymania poziomu populacji stosuje się również odpowiednie metody sterowania poziomem populacji. Jedną ze stosowanych metod jest np. ALC (Adaptive Limiter Control). Badanie przydatności danej metody może zostać przeprowadzone numerycznie lub analitycznie. Wydaje się zasadne dokonanie przeglądu różnych metod stabilności zarówno dla dynamiki z czasem ciągłym jak i dyskretnym. Ponadto zasadne wydaje się zastosowanie własności granicznych układów dyskretnych lub ciągłych. Modelowanie może dotyczyć populacji badanych w warunkach laboratoryjnych z zachowaniem w modelu odpowiedniego zaburzenia.
Tytuł własnego wykładu
[PDF]
Próby opisania zachowania się biologicznych neuronów sięgają przynajmniej początków XX w., kiedy to w 1907 r. francuski neurobiolog Louis Lapicque podał pierwszy prosty model pojedynczego neuronu składający się z jednego prostego równania różniczkowego. Dzisiaj model ten, lekko zmodyfikowany, wraz z dodatkowym warunkiem „resetowania” znany jest jako „leaky integrate-and-fire” i pozostaje często używany zwłaszcza w symulacjach dużych sieci neuronowych. Innym przełomowym momentem było niewątpliwie sformułowanie w 1952 r. przez Alana Hodgkina i Andrew Huxleya modelu opisującego mechanizmy jonowe w neuronie w wyniku badań eksperymentalnych nad aksonem kałamarnicy olbrzymiej (za które otrzymali zresztą później nagrodę Nobla). Model ten składał się już z czterech równań różniczkowych, zdecydowanie nieliniowych. Od tego czasu powstało wiele innych modeli, mających często służyć za modele uproszczone oryginalnego układu Hodgkina i Huxleya, stąd bardziej wydajne w wielkoskalowych symulacjach sieci neuronowych, a jednocześnie będących w stanie odzwierciedlić istotne z danego punktu widzenia właściwości elektrofizjologiczne neuronu.
Z drugiej strony, w szczególności tzw. „hybdrydowe” układy dynamiczne, będące połączeniem układów ciągłych z dyskretnymi stanowią obecnie obiekt wzrastającego zainteresowania ze względu na olbrzymi potencjał w modelowaniu rożnego rodzaju zjawisk fizycznych, biologicznych czy ekonomicznych, a jednocześnie są one wyzwaniem z matematycznego punktu widzenia, ponieważ metody ich badania dopiero zaczynają się rozwijać. Przykładowo, w modelach aktywności neuronów możemy opisać ewolucję w czasie potencjału błonowego komórki oraz innych zmiennych biologicznych za pomocą równań różniczkowych, a z kolei zjawiska generacji potencjału czynnościowego jako dyskretne „wydarzenia” polegające na „resetowaniu” tych zmiennych w odpowiednich momentach, wprowadzające nieciągłości do początkowej ciągłej dynamiki zadanej przez równania różniczkowe. Okazuje się, że w tym wypadku (są to właśnie tzw. modele typu integrate-and-fire) dynamikę układu można efektywnie opisać za pomocą odwzorowania zwanego firing/adaptation map, którego orbity odzwierciedlają naturę „spike-trains” (szeregu czasowego kolejnych potencjałów czynnościowych). Analizę firing/adaptation map można sprowadzić do badania odwzorowań okręgu lub odcinka (w tym również odwzorowań nieciągłych), wykorzystując m.in. teorię rotacji.
Wiele modeli cały czas dostarcza interesujących wyzwań w dziedzinie matematyki, w szczególności układów dynamicznych. Współczesne metody matematyczne stosowane przy ich analizie wykorzystują miedzy innymi nowe interesujące rodzaje bifurkacji (np. tzw. „canards”) czy oscylacji (tzw. Mixed-Mode Oscillations), a także stochastyczne równania różniczkowe. Można sobie wyobrazić, ze jeśli dynamika jednej komórki jest już dość skomplikowana, to próba rygorystycznego opisania całej sieci oddziałujących ze sobą neuronów jest jeszcze trudniejszym zadaniem.
Tytuł własnego wykładu:
[PDF]
Teoria gier to dziedzina matematyki będąca narzędziem do opisu takich sytuacji podejmowania decyzji, w których podejmujących decyzje (zwanych graczami) jest co najmniej dwóch, mają oni różne cele (co można wyrazić przez maksymalizację pewnych funkcji wypłaty) i występuje pomiędzy nimi pewna interakcja, przez co decyzje podjęte przez gracza (definiujące jego strategię) mają wpływ na realizację celu przez innych graczy (czyli argumentami funkcji wypłaty graczy są całe profile strategii, wybranych przez wszystkich graczy). Teoria gier jest więc narzędziem do modelowania zarówno sytuacji konfliktu, jak i kooperacji.
Sesja tematyczna będzie poświęcona teorii gier i jej zastosowaniom w różnych dziedzinach — zarówno nauki, jak i życia. Sesja będzie zapoczątkowana wykładem wprowadzającym do teorii gier, w tym także gier dynamicznych. W ramach tego wykładu uczestnicy zapoznają się między innymi z równowagą Nasha i optymalnością w sensie Pareto. W ramach sesji planowane są też wystąpienia uczestników, dotyczące między innymi dużych gier, gier dynamicznych, gier kooperacyjnych, gier stochastycznych, gier na grafach, a także zastosowań teorii gier w ekonomii, ekologii, socjologii, kryminalistyce, obronie narodowej czy biologii.
Tytuł własnego wykładu:
[PDF]
A dynamical system is a mathematical concept for describing an object varying in time, using a fixed rule that depends on the current state of the object (and not on its past). Dynamical systems can be used to describe a variety of phenomena, such as the growth of a population or spread of an infectious disease. In the first part of the talk, I am going to introduce a framework for automatic classification of global dynamics in a dynamical system depending on a few parameters (such as fertility rates or disease transmission rates). A set-oriented topological approach will be used, based on Conley’s idea of a Morse decomposition (see [3]), combined with rigorous numerics, graph algorithms, and computational algebraic topology. This approach allows to effectively compute outer estimates of all the recurrent dynamical structures encountered in the system (such as equilibria or periodic solutions), as perceived at a prescribed resolution. It thus provides an automatic computational method for concise and comprehensive classification of all the dynamical phenomena found across the given parameter ranges (see [1], [2]). The method is mathematically rigorous (a.k.a. computer-assisted proof), and has a potential for wide applicability thanks to the mild assumptions on the system.
In the second part of the talk, I am going to discuss a few interesting applications. First, I am going to show a population model which contradicts the commonly held belief that the initial state of a population doesn’t matter, because it will eventually stabilize at the equilibrium (see [1]). Next, I am going to show a model which shows that increasing the use of pesticides may sometimes actually increase the amount of pests (see [4]). Finally, I am going to show that incorporating spatial dispersal of individuals into a simple vaccination epidemic model may give rise to a model that exhibits rich dynamical behavior, not normally found in the simple epidemic models (see [5]).
Bibliography:
[1] Z. Arai, W. Kalies, H. Kokubu, K. Mischaikow, H. Oka, P. Pilarczyk, A database schema for the analysis of global dynamics of multiparameter systems, SIAM J. Appl. Dyn. Syst., Vol. 8, No. 3 (2009), 757-789.
[2] J. Bush, M. Gameiro, S. Harker, H. Kokubu, K. Mischaikow, I. Obayashi, P. Pilarczyk, Combinatorial-topological framework for the analysis of global dynamics, Chaos, Vol. 22, No. 4 (2012), 047508.
[3] C. Conley, Isolated invariant sets and the Morse index, CBMS Regional Conference Series in Math., no. 38, Amer. Math. Soc., Providence, RI, 1978.
[4] E. Liz, P. Pilarczyk, Global dynamics in a stage-structured discrete-time population model with harvesting, J. Theoret. Biol., Vol. 297 (2012), 148-165.
[5] D.H. Knipl, P. Pilarczyk, G. Rost, Rich bifurcation structure in a two-patch vaccination model, submitted.
a. Topology of visual cortex: some theoretical thoughts and novel data, towards a theory of topological optimization
b. The role of noise, disorder and heterogeneity in the dynamics of large cortical networks
In these lectures. I will give an overview of two instances in which mathematical analysis lead to a better understanding of cortical function. Both will revolve around collective dynamics in the mammalian brain. In this domain, an ever-increasing amount of data challenges our understanding of cortex and function. At the center of this problem is the inter-relationship between structure and function of cortical networks, on which we will try to shed new light in the course of our lectures.
a. I will start by presenting some works dealing with the structure and function of the visual cortex. In the early visual cortex of higher mammals, information is processed within functional maps whose layout is thought to underlie visual perception. Here, I will preserit a few theoretical thoughts, simulations and experimental data on the possible principles at the basis of their architecture. as well as their possible role in perception. I will present new data on spatial frequency preference representation in cat: we evidence the presence of a continuous map with singularities around which the map organizes as an electric dipole potential. Mathematically, I will show that both architectures are the most parsimonious topologies ensuring local exhaustive representation. Eventually, I will show using computer simulations how these topologies may improve coding capabilities.
b. Another question that is largely open and that may be addressed using mathematics is the role of noise and disorder in the large-scale dynamics of neuronal networks. In order to investigate these questions, I will introduce the main mathematical tools. from the domain of probability theory. that are used in the modeling of large-scale neuronal networks involved at functional scales in the brain. Limits of large networks with complex topologies will be derived, and I will show how levels of noise shape the collective response, in particular I will present a particularly interesting transition to global synchronization in the network as noise is increased.