Les problèmes de criticité de réacteurs nucléaires sont un excellent exemple de couplage de modèles physiques. L’équation de diffusion des neutrons dépend de l’enthalpie du fluide par l’intermédiaire de ses coefficients, et le système des équations de l’hydrodynamique permet de calculer l’enthalpie du fluide en fonction du terme source généré par la répartition des neutrons. Traditionnellement, la résolution de ces problèmes se fait en couplant deux codes numériques sur chacun des deux modèles, avec l’apparition de problèmes d’instabilités numériques. Nous proposons d’étudier, dans un cadre simplifié (approximation Bas Mach et système en dimension 1 d’espace) le système couplé. Nous montrons que ce système (dont l'inconnue est le triplet ($phi$: densité de probabilité de neutrons, $h$ enthalpie, $k$ facteur multiplicatif)) admet, sous des hypothèses raisonnables, une unique solution. Nous avons d'une part utilisé ce résultat pour effectuer le traitement des incertitudes sur les coefficients dans l'équation de neutronique. Plus surprenant, le type de représentation utilisée à partir de ces coefficients fait varier de manière très importante le facteur multiplicatif, et le couplage des codes est beaucoup plus difficile que l'étude directe du modèle couplé.
En géométrie diophantienne, le principe de Batyrev-Manin-Peyre décrit conjecturalement le comportement du nombre de points rationnels de hauteur bornée d’une variété de Fano définie sur un corps de nombres, lorsque ladite borne tends vers l’infini. Étant donnée une variété de Fano sur C, un analogue géométrique de ce principe consiste à considérer l’espace de modules des courbes rationnelles de « grand degré » dans cette variété. Un cadre naturel pour une telle étude est celui de l’intégration motivique ; il s’agit alors de questionner la convergence, après une normalisation adéquate dans l’anneau d’intégration motivique, de la classe de l’espace de module des courbes de degré arbitrairement grand. Il est de plus attendu que son hypothétique limite puisse être décrite par un produit eulérien motivique, jouant ainsi le rôle du nombre de Tamagawa défini par Peyre dans le cadre arithmétique. Dans cet exposé, on présentera les grandes lignes qui mènent à l’énoncé d’un tel principe et à la description de la limite attendue, en illustrant par des exemples pour lesquels le résultat est connu. Puis on montrera qu’affiner ce principe, en introduisant une notion d’équidistribution de courbes, ouvre la voie à de nouveaux résultats.
On considère une approximation de type film mince du problème de Muskat qui décrit l'évolution spatio-temporelle des hauteurs de deux fluides superposés ayant des densités et des viscosités différentes et subissant l'influence de la gravité. La dynamique est décrite par un système de deux équations aux dérivées partielles paraboliques dégénérées d'ordre deux dont la matrice de diffusion n'a pas d'élément identiquement nul (diffusion croisée). D'une part, on obtient l'existence de solutions faibles bornées pour le problème de Neumann dans un ouvert borné. D'autre part, pour le problème de Cauchy, on classifie les solutions autosimilaires et on étudie leur stabilité. Ces résultats ont été obtenus en collaboration avec Ahmed Ait Hammou Oulhaj, Clément Cancès (Lille), Claire Chainais-Hillairet (Lille), Joachim Escher (Hannover) et Bogdan-Vasile Matioc (Regensburg).
On donnera une définition de structure réelle sur une variété tropicale projective, définition qui s'inspire de la méthode du patchwork de Viro. Dans le cas local on montrera qu'une structure réelle sur un éventail matroidal est équivalent à une orientation sur la matroide sous jacente. On generalisera ensuite le théorème du patchwork à ce cadre. C'est un travail en commun avec Kris Shaw et Johannes Rau.
We prove dispersive estimates for two models : the adjacency matrix on a discrete regular tree, and the Schrödinger equation on a metric regular tree with the same potential on each edge/vertex. The latter model can be thought of as an extension of the case of periodic Schrödinger operators on the real line. We establish a t^(-3/2)-decay for both models which is sharp, as we give the first-order asymptotics.
Dans cet exposé, il s’agira de dresser un panorama général (non exhaustif) de différents axes de recherche actuels dédiés à la modélisation et la simulation numérique en océanographie. J’évoquerai notamment les difficultés et les enjeux liés à la modélisation grande échelle et littorale ainsi qu’un bref aperçu des approches numériques récemment développées pour ces problèmes. Plus particulièrement, nous verrons quels sont les principaux obstacles induits par les modèles dispersifs classiques (Boussinesq, Green-Naghdi...), et étudierons dans quelle mesure une nouvelle classe de modèles permet de contourner une partie de ces difficultés. Il s’agit de modèles hyperboliques permettant, dans la limite de certains paramètres de relaxation, de retrouver les modèles dispersifs usuels. Leur structure est de fait particulièrement adaptée à la mise en oeuvre numérique, que ce soit en termes de difficultés d’implémentation, mais aussi en vue de la gestion des conditions aux limites ou encore la décroissance de l’énergie mécanique discrète, qui sont des critères essentiels dans la plupart des contextes opérationnels. Nous nous baserons sur un modèle récemment proposé par Gaël Richard (Université Grenoble Alpes, INRAE) pour discuter d’une approche numérique en cours d’élaboration, en collaboration avec le SHOM (Service Hydrographique et Océanographique de la Marine).
W. Pawlucki a montré en 1990 que l'ensemble des points en lesquels un ensemble sous-analytique est semi-analytique est lui-même sous-analytique. Le but de cet exposé est d'expliquer cette phrase et de présenter une nouvelle stratégie de preuve de ce résultat. C'est un travail en commun avec André Belotto et Octave Curmi.
On propose une construction géométrique permettant de comprendre ensemble les fibres de Milnor topologique et motivique associées à une application régulière complexe. Cette construction passe soit par la géométrie logarithmique, soit par une version adaptée de la déformation (réelle orientée) sur le cône normal. Travail en collaboration avec J.B. Campesato et A. Parusinski.
In this seminar I will discuss the so called ``zonoid algebra'', a construction introduced in a recent work (joint with Breiding, Bürgisser and Mathis) which allows to put a ring structure on the set of zonoids (i.e. Hausdorff limits of Minkowski sums of segments). This framework gives a new perspective on classical objects in convex geometry, and it allows to introduce new functionals on zonoids, in particular generalizing the notion of mixed volume. Moreover this algebra plays the role of a probabilistic intersection ring for compact homogeneous spaces.
Constructive modal logics are obtained by adding to intuitionistic logic a minimal set of axioms for the box and diamond modalities. During this talk I will present two new semantics for proofs in these logics. The first semantics captures syntactically the proof equivalence enforced by non-duplicating rules permutations, and it is defined by means of the graphical syntax of combinatorial proofs. The second semantics captures a coarse notion of proof equivalence, and it is given by means of winning innocent strategies of a two-player game over graphs encoding formulas. This latter semantics is provided with a notion of compositionality and indeed defines the first concrete model of a denotational semantics for these logics.
In this talk, I discuss how non-Newtonian fluids with almost arbitrary rheology can be modeled within a unified first order-hyperbolic formulation of continuum fluid and solid mechanics.
During this seminar I will start with a brief introduction to sediment transport processes. Then, I will present how these processe can be modeled and simulated in the framework of the two-fluid approach by using canonical configurations of increasing complexity. At last, I will show the application of the two-fluid methodology to piping and scouring around hydraulic structures which are challenging engineering problems.
La théorie des types de Martin-Löf compte parmi les instances les plus abouties de la correspondance preuves-programmes : les types dépendants et les types inductifs permettent de spécifier des propriétés complexes aux programmes, et la hiérarchie d'univers fournit une puissance logique suffisante pour encoder l'essentiel des constructions mathématiques -- ce qui en fait un outil de choix pour les assistants de preuves! Toutefois, l'égalité inductive fournie par la théorie n'est pas très adaptée au raisonnement mathématique, car elle encode l'égalité des programmes (intensionnalité'') et non l'égalité des comportements (
extensionnalité''). Cela implique des conséquences désagréables : il est impossible de prouver que les fonctions qui à n associent respectivement n+2 et 2+n sont égales, il est impossible de quotienter un type par une relation, etc. C'est précisément pour remédier à ça qu'a été développée l'idée de théorie des types observationnelle, qui fournirait ces principes d'extensionnalité souhaitables, tout en préservant la correspondance preuves-programmes et les propriétés qui en font un outil si pratique (normalisation, canonicité, décidabilité du typage…). Dans cet exposé, je présenterai TT^obs, une altération conceptuellement simple de la théorie de Martin-Löf qui en fait une théorie observationnelle complète, je montrerai quelques exemples d'utilisation, et j'ébaucherai sa méta-théorie si le temps le permet.
Let f ∈ Z[x_1,...,x_n] be a non-constant polynomial. Let p be a prime number and m be a positive integer. We associate to f, p, m the exponential sum Ef(p,m):=1/p^(mn) ∑_{x∊(Z/pmZ)n} exp(2πif(x)/p^m). Let σ be a positive real number. Suppose that for each prime number p, there is a positive constant c_p such that |Ef(p,m)|≤c_pp^{-mσ} for all m ≥ 2. Igusa's conjecture for exponential sums predicts that one can take c_p independent of p in the above inequality. This conjecture relates to the existence of a certain adèlic Poisson summation formula and the estimation of the major arcs in the Hardy-Littlewood circle method towards the Hasse principle of f. In this talk, I will recall Igusa's conjecture for exponential sums and discuss some new progress and open questions relating this conjecture to the singularities of the hypersurface dened by f . This talk is based on recent joint work with Wim Veys and with Raf Cluckers
La géométrie tropicale est un outil puissant qui permet via l'utilisation d'un théorème de correspondance de ramener des problèmes énumératifs algébriques, par exemple compter le nombre de courbes d'un certain degré passant par un nombre de points convenables, à un problème combinatoire. Ces derniers sont plus simples à appréhender mais parfois compliqués à résoudre. De plus, le passage dans le monde tropical permet de définir de mystérieux invariants dits raffinés, obtenus en comptant les solutions d'un problème énumératif avec des multiplicités polynomiales. Dans cet exposé on s'intéressera à l'énumération de courbes et aux invariants raffinés dans les surfaces abéliennes et dans les fibrés en droites au dessus d'une courbe elliptique. Lien visio : https://zoom.us/j/95789309400?pwd=NzM0SlNBKzhEMi9qK3dUdHhNWlo4QT09
Tout polynôme multivarié P(X_1,...,X_n) peut être écrit comme une somme de monômes, i.e., une somme de produits de variables et de constantes du corps. La taille naturelle d'une telle expression est le nombre de monômes. Mais, que se passe-t-il si on rajoute un nouveau niveau de complexité en considérant les expressions de la forme : somme de produits de sommes (de variables et de constantes) ? Maintenant, il devient moins clair comment montrer qu'un polynôme donné n'a pas de petite expression. Dans cet exposé nous résoudrons exactement ce problème. Plus précisément, nous prouvons que certains polynômes explicites n'ont pas de représentations ``somme de produits de sommes'' (SPS) de taille polynomiale. Nous pouvons aussi obtenir des résultats similaires pour les SPSP, SPSPS, ... etc. pour toutes les expressions de profondeur constante.
I'll describe some recent advances in the area of point-counting: that is, results establishing upper bounds on the number of algebraic points of given height and degree in a (usually transcendental) set. I'll explain how, following an idea of Schmidt, these results can be used to deduce lower bounds for the Galois degrees of special points in some arithmetic situations. After reviewing some more classical contexts, I'll discuss how this strategy is applied (in a joint work with Schmidt and Yafaev) to obtain Galois lower bounds for special points in general Shimura varieties (where the more classical abelian methods do not seem to apply) conditional on suitable height bounds. In particular, Andre-Oort is shown to follow from these conjectural height bounds. Very recently, Pila-Shankar-Tsimerman proved these height bounds, thus finishing the proof of general Andre-Oort.
We introduce a new formalisation of language computation, called keyboards. We consider a set of atomic operations (writing a letter, erasing a letter, going to the right or to the left) and we define a keyboard as a set of finite sequences of such operations, called keys. The generated language is the set of words obtained by applying some non-empty sequence of those keys. Unlike classical models of computation, every key can be applied anytime. We define various classes of languages based on different sets of atomic operations, and compare their expressive powers. We also compare them to rational, context-free and context-sensitive languages. We obtain a strict hierarchy of classes, whose expressiveness is orthogonal to the one of the aforementioned classical models. We also study closure properties of those classes, as well as fundamental complexity problems on keyboards.