En 1974, P. Deligne établit l'existence d'une filtration par le poids sur la cohomologie rationnelle des variétés algébriques complexes. Un analogue de cette filtration pour les variétés algébriques réelles a été introduit par Totaro en 2002. Dans un article publié en 2011, C.McCrory et A. Parusinski en enrichissent la compréhension, notamment en la réalisant par un certain complexe de chaînes filtré, possédant des propriétés que l'on peut lire sur la suite spectrale induite. Considérons maintenant des variétés algébriques réelles munies d'une action algébrique de groupe. La fonctorialité du complexe de poids nous permet de le munir d'une action induite. Ce complexe filtré de poids avec action est la première pierre d'une filtration par le poids équivariante pour les variétés algébriques réelles avec action. On établira différentes propriétés de ces objets équivariants, notamment dans le cas du groupe à deux éléments. On verra ainsi qu'un résultat de ``découpage'' sur les variétés Nash implique un analogue de la suite exacte courte de Smith tenant compte de la filtration, que l'on peut utiliser pour extraire d'une certaine suite spectrale des invariants additifs sur les variétés algébriques réelles munies d'une involution algébrique.
Attention : horaire inhabituel !
Dans certains matériaux lorsque les phénomènes de plasticité l'emportent, le comportement change assez fortement. Un exemple d'un tel changement apparaît lors d'expérience de cisaillement dans lequel le matériau verra son écoulement localisé dans une bande au lieu d'être uniforme dans tout l'échantillon. Dans cet exposé je présenterai une description mathématique de ce phénomène pour un modèle de fluide viscoplastique particulier: le modèle d'Arrhénius. Nous étudierons les bandes de cisaillement sous divers prisme afin de mieux comprendre pourquoi elles apparaissent et quelles formes elles peuvent prendre dans ce cas.
In a recent paper (Girard 2011b), Girard uses the geometry of interaction in the hyperfinite factor (Girard 2011a) in an innovative way to characterize complexity classes. The purpose of this paper is two-fold: to give a detailed explanation of both the choices and the motivations of Girard’s definitions, and – since Girard’s paper skips over some non-trivial details and only sketches one half of the proof – to provide a complete proof that co-NL can be characterized by an action of the group of finite permutations. We introduce as a technical tool the non-deterministic pointer machine, a concrete model that computes the algorithms represented in this setting.
In this talk we consider some stabilization problems for the wave equation with switching time-delay. We prove exponential stability results for appropriate damping coef- cients. The proof of the main results is based on D'Alembert formula, observability inequality and some energy estimates. More general and abstract problems, like the Petrovsky system, are also discussed.
Two subanalytic subsets of R^n are called s-equivalent at a common point P if the Hausdorff distance between their intersections with the sphere centered at P of radius r vanishes to order > s when r tends to 0. We proved that every s-equivalence class of a closed semianalytic set contains a semialgebraic representative of the same dimension. Results on approximation of subanalytic sets under suitable assumptions were obtained as well. (joint work with E.Fortuna, L.Wilson).
À venir
Cellular Automata can be characterized as the translation-invariant continuous functions, where continuity is with respect to a certain distance over the set of configurations. This distance, and its properties, easily extend from grids to Cayley graphs. As a consequence, Cellular Automata also extend from grids to Cayley graphs. Cayley graphs have a number of useful features: the ability to graphically represent finitely generated group elements and their equality; to name all vertices relative to a point; the fact that they have a well-defined notion of translation, and that they can be endowed with such a compact metric. But they are very regular. We propose a notion of graph associated to a language, which conserves or generalizes these features. These associated graphs can be arbitrary, although of a bounded degree. We extend Cellular Automata to these Generalized Cayley graphs, so that they define a local dynamics over time-varying graphs.
On définit une fonction qui à tout r-uplet de parties finies de Z^n associe un nombre entier positif ou nul. Cette fonction partage de nombreuses propriétés avec le volume mixte classique donnant une borne sur le nombre de solutions complexes de systèmes polynomiaux de polytopes de Newton donnés. On montre que notre volume mixte discrêt donne quant à lui une borne fine sur le nombre de solutions positives de systèmes polynomiaux tropicaux de supports donnés.
Dans le cadre de la réalisabilité classique telle qu'elle est introduite par Krivine, les réalisateurs |A| d'une formule A peuvent être vus comme des défenseurs de la formule face à une pile choisie parmi l'ensemble ||A|| de ses adversaires. Dans la continuité de cette interprétation, Krivine explique comment une formule arithmétique (∃xn, ∀yn, ... ∃x1, ∀y1 f(x, y)=0 ) peut être vue comme un jeu entre deux joueurs (∃ et ∀), un réalisateur étant alors une stratégie gagnante pour le jeu correspondant. Dans sa thèse, Guillermo montre que tout réalisateur universel est bien un stratégie gagnante. On montre ici que la réciproque est vraie : une stratégie gagnante est aussi un réalisateur universel. On s'intéresse ensuite à la relativisation des formules à différents types de données (et l'on montre qu'il existe dans le plus dur des jeux une stratégie gagnante valable pour toute formule vraie) et au lien entre formules d'atome f(x,y)=0 et f(x,y)<>0.
L'objectif de cet exposé est d'étudier la stabilité de couches limites fluides lorsque la viscosité tend vers 0. Nous montrerons comment des scalings différents permettent de passer des équations de Navier Stokes aux équations de Prandtl et à celles d'Orr Sommerfeld. Nous nous concentrerons ensuite sur l'étude spectrales de ces dernières pour présenter la construction de modes approchés instables de type Tollmien Schlichting. Nous montrerons que l'on s'attend à ce que tout flot de cisaillement soit instable.
Les automates cellulaires probabilistes ou non-déterministes sont souvent étudiés à travers des exemples ou aspects particuliers (alpha-asynchronisme, automates bruités, transitions locales probabilistes, etc). Nous proposons au contraire de les formaliser dans un modèle général qui se prête à une étude systématique. Partant de là nous abordons deux problématiques importantes largement développées dans la théorie des automates cellulaires déterministes : les simulations et l'universalité intrinsèque d'une part, la décidabilité des propriétés globales en fonction des descriptions locales d'autre part.
Dans cet exposé, nous proposerons d'abord un bilan des résultats connus sur les solutions non oscillantes de champs de vecteurs analytiques réels (i.e. des systèmes d'équations différentielles du 1er ordre) en lien avec la géométrie modérée (propriétés de finitude, structures o-minimales, corps de Hardy). Dans la deuxième partie, nous esquisserons deux résultats récents dans ce contexte: l'un en collaboration avec O. LeGal et P. Speissegger sur la dichotomie o-minimal/enlacement pour des systèmes d'équations différentielles linéaires; l'autre en collaboration avec O. LeGal et M. Matusinski sur la possibilité de trouver, pour des systèmes non-linéaires, des extensions du corps de Hardy des coefficients contenant certaines solutions.
En théorie des catégories, une fibration représente une forme d'indexation d'une catégorie par une autre. On rappellera comment une telle structure peut être utilisée pour modéliser une logique (représentée par la catégorie indexée) au dessus d'une théorie des types (représentée par la catégorie index). On portera alors notre attention sur les types inductifs et coinductifs et comment capturer leurs schémas d'induction et de coinduction respectif dans les fibrations.
Ces travaux portent sur l’étude d’un problème inverse de détection en utilisant en particulier l’optimisation de formes. Dans un premier temps, nous cherchons à localiser un objet immergé dans un fluide visqueux, incompressible et stationnaire. Nous nous intéressons à la question de l’identifiabilité de l’objet puis nous analysons ce problème inverse comme un problème d’optimisation en minimisant une fonctionnelle coût. Deux approches sont étudiées : l’approche géométrique utilisant les dérivées de forme et l’approche topologique utilisant le gradient topologique. Pour la première, nous démontrons théoriquement l’instabilité de ce problème et motivons ainsi nos simulations numériques utilisant une méthode de régularisation. Concernant l’ap- proche topologique, nous étudions la localisation de petits obstacles à l’aide d’une analyse asymptotique. Les simulations numériques effectuées permettent de souli- gner l’efficacité et les limites de ces méthodes dans le cadre de notre étude. Enfin, nous nous intéressons à des conditions aux bord non standard, à savoir des conditions de type Ventcel. Ces conditions permettent par exemple d’étudier des domaines à couches minces en remplaçant ces derniers par des domaines sans couche mince munis de nouvelles conditions aux bords appelées conditions d’impédance. Nous adaptons alors les techniques précédentes à ce cas en soulignant les difficultés et les problèmes encore ouverts pour ce type de conditions.
Dans un travail en commun avec Adolfo Guillot on classifie les germes de connexions analytiques quasihomogènes sur les surfaces. On en déduit une classification des surfaces compactes admettant des connexions analytiques quasihomogènes (i.e. localement homogènes sur un ouvert dense, mais pas partout). J'expliquerai également nos motivations qui proviennent du théorème de M. Gromov de l'orbite dense-ouverte.
Dans ma thèse, j'ai étudié les liens entre deux notions différentes de la complexité. La complexité algorithmique, d'une part, qui mesure la difficulté de réaliser une tâche automatiquement. La complexité de systèmes, d'autre part, qui est le degré d'intrication des actions des agents du système. Cette approche est relativement nouvelle, à la fois dans les deux théories, et offre des perspectives enthousiasmantes pour parler des grandes conjectures de la complexité. En particulier, nous avons réussi à développer une méthode générique pour construire des bornes inférieures de complexité, et des conditions nécessaires relativement élémentaires sur notre modèle de calcul, ce qui est souvent considéré comme une question difficile en théorie de la complexité. D'autre part, mon travail propose une définition alternative de classes de complexité, basée sur des automates cellulaires, et étudie les relations avec les définitions classiques. Enfin, la dernière partie de mon travail a consisté à utiliser les méthodes de la théorie de la complexité pour ouvrir de nouvelles pistes sur une conjecture ancienne en automates cellulaires, à savoir l'existence d'un automate universel par facteur. J'ai soutenu ma thèse le 26 octobre 2012 à Santiago, au Chili, mais je suis heureux de vous convier à cet exposé, sans doute plus informel, sur les travaux que j'ai effectués pendant ces quelques années au LAMA.
We introduce bisimulation up to congruence'' as a technique for proving language equivalence of non-deterministic finite automata. Exploiting this technique, we devise an optimisation of the classical algorithm by Hopcroft and Karp which, as we show, is exploiting a weaker
bisimulation up to equivalence'' technique. The resulting algorithm can be exponentially faster than the recently introduced ``antichain algorithms''.
Dans ℝ, une façon classique de décrire le lieu singulier d'un ensemble algébrique ou analytique est de donner une stratification de Whitney. Cluckers-Comte-Loeser ont traduit cette notion dans ℚ_p. Dans mon exposé, je vais présenter un autre type de stratifications dans des corps valués, qui, dans un certain sens, est beaucoup plus fort. En effet, l'information contenue dans une tel ``t-stratification'' n'est pas purement locale, et en particulier, elle induit une stratification dans le corps résiduel. En choisissant bien le corps valué K dans lequel on travaille (avec corps résiduel ℝ), ceci peut être utilisé pour obtenir des stratifications de Whitney classiques à partir des t-stratifications dans K.