Vladimir Vapnik

Vladimir Vapnik

Vladimir Naumovich Vapnik (6 décembre 1935) est l'un des principaux contributeurs à la théorie de Vapnik-Chervonenkis.


Né en Union Soviétique, il obtient en 1958 un mastère de mathématiques à l'Université d'État d'Ouzbékistan, à Samarkand, en Ouzbékistan, puis obtient en 1964 un doctorat de statistiques à l'Institut des Sciences de Contrôle, à Moscou. Il travaille dans ce même institut de 1961 à 1990, et en devient le directeur du département de recherche en informatique.

En 1995 il est nommé professeur d'informatique et de statistiques au Royal Holloway College, à l'Université de Londres. Aux laboratoires Bell d'AT&T de 1991 à 2001?, Vladimir Vapnik et ses collègues développent la théorie des machines à support vectoriel (aussi appelées « machines à vecteurs de support », ou encore « séparateurs à vaste marge »), dont ils démontrent l'intérêt dans nombre des problématiques importantes de l'apprentissage des machines et des réseaux de neurones, tels que la reconnaissance de caractères.

Il travaille ensuite aux laboratoires NEC de Princeton, dans le New Jersey, aux États-Unis, ainsi qu'à l'université Columbia, à New York.

En 2006, Vladimir Vapnik est admis à l'Académie Nationale d'Ingénierie des États-Unis.

Sommaire

Bibliographie

  • On the uniform convergence of relative frequencies of events to their probabilities (De la convergence uniforme des fréquences relatives des évènements vers leur probabilité), avec A. Y. Chervonenkis, 1971
  • Necessary and sufficient conditions for the uniform convergence of means to their expectations (Conditions nécessaires et suffisantes pour la convergence uniforme des moyennes vers leur espérance), avec A. Y. Chervonenkis, 1981
  • Estimation of Dependences Based on Empirical Data (Estimation des dépendances à partir de données empiriques), 1982
  • The Nature of Statistical Learning Theory (La nature de la théorie de l'apprentissage statistique), 1995
  • Statistical Learning Theory (Théorie de l'apprentissage statistique), 1998
  • Estimation of Dependences Based on Empirical Data (Estimation des dépendances à partir de données empiriques), réédition 2006 (Springer), qui contient également un essai philisophique sur la Science de l'inférence empirique (Empirical Inference Science), 2006

Liens internes

Liens externes

Sources


Wikimedia Foundation. 2010.

Contenu soumis à la licence CC-BY-SA. Source : Article Vladimir Vapnik de Wikipédia en français (auteurs)

Игры ⚽ Поможем написать курсовую

Regardez d'autres dictionnaires:

  • Vladimir Vapnik — Vladimir Naumovich Vapnik ( ru. Владимир Наумович Вапник) is one of the main developers of Vapnik Chervonenkis theory. He was born in the Soviet Union. He received his master s degree in mathematics at the [http://nuu.uz/?ln=en Uzbek State… …   Wikipedia

  • Vladimir Vapnik — Wladimir Naumowitsch Wapnik (in englischer Transkription Vladimir Naumovich Vapnik, russisch Владимир Наумович Вапник) ist ein sowjetisch amerikanischer Mathematiker und Hauptentwickler der Wapnik Tscherwonenkis Theorie sowie der Support Vector… …   Deutsch Wikipedia

  • Vapnik-Chervonenkis theory — (also known as VC theory) was developed during 1960 1990 by Vladimir Vapnik and Alexey Chervonenkis. The theory is a form of computational learning theory, which attempts to explain the learning process from a statistical point of view.VC theory… …   Wikipedia

  • Theorie de Vapnik-Chervonenkis — Théorie de Vapnik Chervonenkis La théorie de Vapnik Chervonenkis (également connue sous le nom de théorie VC) est une théorie mathématique et informatique développée dans les années 1960 1990 par Vladimir Vapnik et Alexey Chervonenkis. C est une… …   Wikipédia en Français

  • Théorie de vapnik-chervonenkis — La théorie de Vapnik Chervonenkis (également connue sous le nom de théorie VC) est une théorie mathématique et informatique développée dans les années 1960 1990 par Vladimir Vapnik et Alexey Chervonenkis. C est une forme de théorie de l… …   Wikipédia en Français

  • Théorie de Vapnik-Chervonenkis — La théorie de Vapnik Chervonenkis (également connue sous le nom de théorie VC) est une théorie mathématique et informatique développée dans les années 1960 1990 par Vladimir Vapnik et Alexey Chervonenkis. C est une forme de théorie de l… …   Wikipédia en Français

  • Machine à vecteurs de support — Les machines à vecteurs de support ou séparateurs à vaste marge (en anglais Support Vector Machine, SVM) sont un ensemble de techniques d apprentissage supervisé destinées à résoudre des problèmes de discrimination[note 1] et de régression. Les… …   Wikipédia en Français

  • Machine a vecteurs de support — Machine à vecteurs de support Les machines à vecteurs de support ou séparateurs à vaste marge (en anglais Support Vector Machine, SVM) sont un ensemble de techniques d apprentissage supervisé destinées à résoudre des problèmes de… …   Wikipédia en Français

  • Machine À Vecteurs De Support — Les machines à vecteurs de support ou séparateurs à vaste marge (en anglais Support Vector Machine, SVM) sont un ensemble de techniques d apprentissage supervisé destinées à résoudre des problèmes de discrimination[1] et de régression. Les SVM… …   Wikipédia en Français

  • Machine à vecteur de support — Machine à vecteurs de support Les machines à vecteurs de support ou séparateurs à vaste marge (en anglais Support Vector Machine, SVM) sont un ensemble de techniques d apprentissage supervisé destinées à résoudre des problèmes de… …   Wikipédia en Français

Share the article and excerpts

Direct link
Do a right-click on the link above
and select “Copy Link”