"On n'est pas dans le futurisme, mais dans un drame bourgeois ou un thriller atmosphérique"
La puissance des outils. L'efficacité des mathématiques repose sur leur capacité à représenter le réel. Ou du moins un fragment de réalité, en le décrivant et en anticipant, voire en expliquant son comportement, comme l'analyse le philosophe et physicien belge Dominique Lambert. Or toute modélisation d'un élément de réalité nécessite la mise en évidence d'invariants et de lois, et le développement de méthodes capables de les reproduire. De tels outils mathématiques s'inscrivent toujours dans leur contexte historique. Ainsi, la physique, qui repose sur de nombreux invariants (énergie, moment angulaire, etc.), a stimulé les mathématiques aux XIXe et XXe siècles. Désormais, l'informatique joue ce rôle de catalyseur. Pour faire face à l'avalanche de données, les mathématiciens améliorent sans cesse les algorithmes. En retour, l'informatique leur fournit de nouveaux moyens pour explorer et modéliser le monde. Nous vous présentons dans cette partie certains d'entre eux, fruits de cette symbiose entre les deux disciplines. Parmi eux, les réseaux sans échelle reproduisent une distribution très hétérogène de noeuds, comme il en existe sur Facebook ou dans la cartographie des couloirs aériens. De leur côté, les marches aléatoires, s'inspirant de la marche hasardeuse de l'ivrogne, parviennent à simuler les frontières irrégulières de certains phénomènes : propagation d'un front d'incendie, d'une marque de rouille ou d'une épidémie. Avec les automates cellulaires, on entre dans le domaine des calculateurs universels. Des lois simples d'interaction entre les cellules qui les constituent conduisent à un comportement global difficile à décrire et à prédire. Quant aux statistiques, elles s'attaquent aux grandes dimensions pour traiter des données complexes. Leur objectif, identifier un signal pertinent au sein d'une masse de données, se complexifie dans un monde multidimensionnel. L'heure est à la recherche de nouvelles méthodes. La plus en vogue : l'apprentissage statistique par un réseau de neurones formels. Il s'agit d'entraîner des algorithmes en leur montrant des millions d'images de chiens par exemple, pour qu'ils puissent ensuite reconnaître l'animal. Leur champ d'applications semble vertigineux. Reste que la méthode ne permet pas de concevoir des théories. Car l'algorithme ne « comprend » rien : il ne fait que reconnaître et classifier. Aux scientifiques de faire le reste !
Il n'y a pas encore de discussion sur ce livre
Soyez le premier à en lancer une !
"On n'est pas dans le futurisme, mais dans un drame bourgeois ou un thriller atmosphérique"
L'auteur se glisse en reporter discret au sein de sa propre famille pour en dresser un portrait d'une humanité forte et fragile
Au Rwanda, l'itinéraire d'une femme entre rêve d'idéal et souvenirs destructeurs
Participez et tentez votre chance pour gagner des livres !