Je donnerai quelques directions de recherches actuelles en théorie de la mesure géométrique algébrique après, entre autres, les travaux de J. Fu, S. Aleshker, A. Bernig.
Compressed sensing (CS) is a new strategy to sample complicated data such as audio signals or natural images. Instead of performing a pointwise evaluation using localized sensors, signals are projected on a small number of delocalized random vectors. This talk is intended to give an overview of this emerging technology. It will cover both theoritical guarantees and practical applications in image processing and numerical analysis. The initial theory of CS was jointly developed by Donoho [1] and Candès, Romberg and Tao [2]. It makes use of the sparsity of signals to minimize the number of random measurements. Natural images are for instance well approximated using a few number of wavelets, and this sparsity is at the heart of the non-linear reconstruction process. I will discuss the extend to which the current theory captures the practical success of CS. I will pay a particular attention to the worse case analysis of the recovery, and perform a non-asymptotic evaluation of the performances [3]. To obtain better recovery guarantees, I propose a probabilistic analysis of the recovery of the sparsity support of the signal, which leads to constants that are explicit and small [4]. CS ideas have the potential to revolutionize other fields beyond signal processing. In particular, the resolution of large scale problems in numerical analysis could beneficiate from random projections. This performs a dimensionality reduction while simplifying the structure of the problem if the projection is well designed. As a proof of concept, I will present a new compressive wave equation solver, that use projections on random Laplacian eigenvectors [5]. [1] D. Donoho, Compressed sensing, IEEE Trans. Info. Theory, vol. 52, no. 4, pp. 1289-1306, 2006. [2] E. Candès, J. Romberg, and T. Tao, Robust uncertainty principles: Exact signal reconstruction from highly incomplete frequency information, IEEE Trans. Info. Theory, vol. 52, no. 2, pp. 489-509, 2006. [3] C. Dossal, G. Peyré and J. Fadili, A Numerical Exploration of Compressed Sampling Recovery, Linear Algebra and its Applications, Vol. 432(7), p.1663-1679, 2010. [4] C. Dossal, M.L. Chabanol, G. Peyré and J. Fadili, Sparse Support Identi
We give an effective formula for the local Lojasiewicz exponent of a polynomial mapping. Moreover, we give an algorithm for computing the local dimension of an algebraic variety.
In the sixties Kuiper and Kuo gave a sufficient condition for the topological equivalence of the function germs. The aim of our presentation is to generalize this result to the case of mappings at infinity.
Dans cet exposé, nous allons présenter un outil important pour la construction des mots de Sturm (et donc également pour les droites discrètes) que l'on nomme la clôture palindromique. Nous allons étendre cette notion pour atteindre des mots infinis comme les mots de Rote ou encore la fameuse suite de Thue-Morse. Enfin, nous montrerons comment calculer les diverses clôtures d'une façon efficace.
Notions of cartesian closed sketches have been proposed as a categorical approach to algebra with binding. We here consider a 2-dimensional refinement of this idea, called cartesian closed 2-signatures, as a categorical approach to higher-order rewriting, i.e., rewriting with variable binding. We sketch a general notion of standardisation in the sense of Lévy (1980).
The ADER approach (Toro et al. 2001 and many others) allows the construction of non-linear one step fully discrete numerical schemes of arbitrary order of accuracy in space and time, for solving evolutionary partial differential equations. The ADER approach operates in the frameworks of finite volume and DG finite element methods and is applicable to multidimensional problems on unstructured meshes. The schemes have two basic ingredients: (a) a non-linear spatial reconstruction operator and (b) the solution of a generalized (or high-order) Riemann problem that links spatial data distribution and time evolution. After describing the main ideas of the methodology I will also show some applications involving hyperbolic and parabolic equations.
Cellular automata are both a powerful model of computation and a continuous function on a Cantor space. So the notion of equicontinuity is naturally defined, and corresponds to the ability to block any communication. This property is most of the time considered along the line (x=0). Mathieu Sablik extended it first to all lines, and here we want to deal with automata that are equicontinuous along any curve. I’ll present a classification of cellular automata considering it, with examples, and some dynamical consequences.
On donnera un critère pour qu'une application $F: C2 to C2$, non singulière, soit propre, en termes d'homologie d'intersection.
Etant donnée une variété différentiable sous-analytique bornée (non necéssairement compacte), on considère les formes différentiables dont la norme est intégrable sur la variété. Je donnerai des théorèmes qui concernent la cohomologie de ces formes.
Dans cet exposé, on s'intéresse aux catégories de réponse (des catégories avec les produits finis et un objet exponentiel, introduites par Selinger) sous deux aspects :
We extend the well-known Serrin's blowup criterion for the three-dimensional incompressible Navier-Stokes equations to the 3D compressible Navier-Stokes equations with vacuum. In other words, in addition to Serrin's condition on the velocity, the L^1(0,T;L^{infty}) norm of the divergence of the velocity is also needed to control the possible breakdown of strong (or smooth) solutions for the three-dimensional compressible Navier-Stokes equations. Moreover, under some additional constraint on the viscosity coefficients, either the L^1(0,T;L^{infty}) norm of the divergence of the velocity or the upper bound of the density will be enough to guarantee the global existence of classical (or strong) solutions.``
Nous présentons les méthodes d'optimisation de structure par la méthode des courbes de niveaux (level set). Nous montrons ensuite comment le modèle de Francfort-Marigo pour l'endommagement peut se traiter numériquement de façon efficace par ce type de méthode dès lors que l'on a calculé la dérivé de forme pour un problème à deux matériaux.
Dans cet exposé, nous cherchons à colorier proprement des graphes de sorte que deux sommets adjacents n'aient pas le même ensemble de couleurs dans leur voisinage fermé. On peut par exemple colorier de cette manière n'importe quel graphe biparti avec 4 couleurs, mais savoir si l'on peut colorier un graphe biparti avec seulement 3 couleurs est NP-complet. Nous nous interesserons aussi à une autre classe de graphes : les graphes triangulés pour lesquels nous pensons que 2*k couleurs sont suffisantes, avec k la taille de la plus grande clique. Enfin, je donnerai des relations avec le nombre chromatique et avec le degre maximum du graphe.
Dans cet exposé (très largement inspiré des travaux de Krivine présentés en juin dernier), je propose d'étudier à travers la correspondance de Curry-Howard la transformation de preuves sous-jacente à la méthode de forcing. Pour cela, je me placerai en arithmétique d'ordre supérieur (PAw) avec termes de preuves à la Curry. Je définirai d'abord la transformation qui à une proposition A associe la proposition p ||- A (où p est une condition arbitraire), puis une transformation t |-> t^ sur les termes de preuves bruts (i.e. non typés) telle que si t : A, alors t^ : p ||- A. Je montrerai alors comment le terme traduit effectue ses calculs, et en quoi il est légitime de voir cette transformation comme la mise en place d'un petit système d'exploitation.
Nous montrerons le rôle des fibrés vectoriels en physique par l'intermédiaire des théories de jauge, et comment des classes caractéristique peuvent intervenir, via des termes topologiques dans les Lagrangiens. Pour une théorie de jauge abélienne, nous verrons comment les monopôles magnétiques et l'effet Bohm-Aharonov peuvent s'interprèter comme une première classe de Chern, et pour les théories non abéliennes, le nombre d'instanton est une deuxième classe de Chern (dans la version euclidienne de la théorie de Yang et Mills).