Startseite > Informatik > Künstliche Intelligenz > Science > Maschinelles Lernen: Eine probabilistische Perspektive Bewertung

Maschinelles Lernen: Eine probabilistische Perspektive

Machine Learning: A Probabilistic Perspective
Von Kevin P. Murphy
Rezensionen: 14 | Gesamtbewertung: Gut
Ausgezeichnet
10
Gut
2
Durchschnitt
2
Schlecht
0
Schrecklich
0
Eine umfassende Einführung in das maschinelle Lernen, bei der probabilistische Modelle und Inferenzen als einheitlicher Ansatz verwendet werden. Die heutige webfähige Flut elektronischer Daten erfordert automatisierte Methoden zur Datenanalyse. Maschinelles Lernen bietet diese Methoden zur Entwicklung von Methoden, mit denen Muster in Daten automatisch erkannt und anhand der nicht abgedeckten Muster zukünftige Daten vorhergesagt werden können. Diese

Rezensionen

05/14/2020
Kolivas Ashcroft

Es ist schwer zu sagen, dass jemand dieses ganze Buch tatsächlich "gelesen" hat - es liest sich wie ein kleiner Teil aller gängigen Algorithmen für maschinelles Lernen. Ich würde es nicht für eine Einführung in das maschinelle Lernen empfehlen, nicht aufgrund der erforderlichen technischen Fähigkeiten (da es in Mathematik tatsächlich viel leichter ist als andere ähnliche Bücher), sondern auch aufgrund der Methode und Tiefe, in der der Autor das Material einführt.

Davon abgesehen ist dies vielleicht der beste moderne "Referenz" -Text zu Methoden des maschinellen Lernens. Wenn Sie bereits wissen, wo viele Methoden in der gesamten Landschaft des maschinellen Lernens existieren, ist dieses Buch absolut fantastisch.

Dieses Buch beschreibt sich selbst als Bayesianisch, aber es ist deutlich weniger als viele andere Texte (z. B. Bishop's PRML oder die frequentistische Neigung von Hasties ESL). Stattdessen sind die meisten Algorithmen hauptsächlich durch Konventionen / Mode in der Community des maschinellen Lernens motiviert. Insbesondere wird nahezu jeder Algorithmus als konvexe Relaxation zur tatsächlichen posterioren Verteilung dargestellt, so dass unsere modernen Optimierungsalgorithmen MAP-Lösungen bei einem relativ großen Datensatz computerisieren können. Echte Bayes'sche Inferenzmethoden sind eher ein nachträglicher Gedanke, der durch ihre Behandlung erst in viel späteren Kapiteln von MCMC / Stichproben- und Variationsansätzen "belegt" wird.

Kaufen Sie dieses Buch! Kaufen Sie einige Seitenmarkierungen dafür! Kaufen Sie aber auch einen Begleittext für prinzipiellere Herangehensweisen an die Grundlagen.
05/14/2020
Arianna Hakeem

Nun, obwohl dieses Buch nicht zum Lesen gedacht ist (im allgemeinen Sprachgebrauch). Aber ich fand es wirklich interessant. Es enthält alles, was mit maschinellem Lernen zu tun hat, jeden verwendeten Algorithmus, jeden modernen Ansatz, der entwickelt wird. Mir hat gefallen, wie Murphy die Themen des Buches bestellt hat.
Sicherlich wird es nicht jedem empfohlen, aber zumindest allen, die das maschinelle Lernen auf sehr umfassende Weise verstehen wollen.
05/14/2020
Mariano Doig

Hervorragendes Handbuch zum statistischen Lernen mit einer einfachen Bayes'schen Erklärung für die gängigsten statistischen Modelle. Einige gute Beispiele: Der Autor erklärt den Unterschied zwischen kleinsten Quadraten, Grat, Lasso usw. aus verschiedenen Verteilungsassoziationen für die Wahrscheinlichkeitsfunktion und vor; oder die MLE (hohe Varianz / mögliche Überanpassung) ist die MAP-Schätzung (hohe Verzerrung) mit einheitlichem Prior usw. usw. Macht etwas, das oft wie verschiedene Kochrezepte aussieht, zu einer Ontologie klarer verwandter Konzepte. Enthält auch einige nützliche Übersichtstabellen (siehe z. B. Tabelle 8.1 für eine lange Liste von Modellen, klassifiziert als Klassifizierung / Regression, generativ / diskriminativ, parametrisch / nicht parametrisch). Sehr pädagogisch. Aufgrund der Länge und manchmal Tiefe der Mathematik kann ein Buch jedoch auf verschiedenen Ebenen gelesen werden, je nachdem, wonach der Leser sucht. Ich bin auch der Meinung, dass die in der zweiten Hälfte des Buches vorgestellten Aspekte (Bäume, SVM, neuronale Netze, Markov-Ketten usw. usw. usw.) so vielfältig und doch so technisch sind, dass sich die Bücher auf diese spezifischen Modelle konzentrierten kann für einige Klarstellungen bevorzugt sein.
05/14/2020
Pearson Tiburcio

Der Inhalt des Buches ist fantastisch (fünf Sterne), wenn auch 2016 etwas veraltet. Der erste Druck ist jedoch so voller Tippfehler (null Sterne), dass es schwierig ist zu verstehen, wie die Version jemals gedruckt wurde. Offensichtlich hat es niemand vor der Druckgenehmigung durchgelesen. Ich würde die erste Ausgabe niemandem empfehlen, es sei denn, sie sind Experten mit der Fähigkeit, jede einzelne Gleichung zu überprüfen und gegebenenfalls neu zu schreiben.
05/14/2020
Leanne Ouimette

Immer noch relevant, immer noch eine nützliche Referenz, selbst an diesem Tag des maschinellen Lernens. Klar und gut belichtet.
05/14/2020
Cirillo Trax

Dieses umfangreiche Buch ist eine tiefe und detaillierte Einführung in das Gebiet des maschinellen Lernens unter Verwendung probabilistischer Methoden. Es richtet sich an eine Leserschaft auf Hochschulniveau und setzt einen mathematischen Hintergrund voraus, der Kalkül, Statistik und lineare Algebra umfasst.

Das Buch beginnt mit einem kurzen Überblick über die Arten von Problemen, auf die maschinelles Lernen angewendet werden kann, und skizziert die Arten von Methoden, mit denen diese Probleme modelliert werden können.

Nach einer kurzen Einführung in die Wahrscheinlichkeit werden die verbleibenden 27 Kapitel auf rund tausend Seiten ausführlich zu diesen und verwandten Themen behandelt.

Aufgrund der Art des Materials besteht ein Großteil des Inhalts aus mathematischen Gleichungen und Beweisen. Numerische Beispiele sind rar. Die Autoren verlassen sich vielmehr auf die mathematische Intuition des Lesers, die durch eine Vielzahl grafischer Darstellungen gestützt wird.

Wo relevant, werden Übersichten über reale Anwendungen verschiedener Techniken bereitgestellt, die dazu beitragen, das eher abstrakte Thema konkreter zu machen. Darüber hinaus steht der MATLAB- und GNU-Oktavcode, der die im Buch angegebenen Algorithmen implementiert, als Download auf der Website des Buches frei zur Verfügung.

Der Stil des Autors ist einfach, aber maßgeblich, mit nützlichen Erklärungen und Nebenbemerkungen. Das Buch ist jedoch als Lehrbuch gedacht und erfordert vom Leser besondere Aufmerksamkeit. In Abwesenheit eines Ausbilders,

Ich habe häufig nach anderen Ressourcen gegriffen, um die im Buch gegebenen Erklärungen zu unterstützen, obwohl dies wahrscheinlich darauf zurückzuführen ist, dass ich die erforderlichen Hintergrundthemen nicht ausreichend verstanden habe.

Die Übungen finden Sie am Ende jedes Kapitels. Obwohl den Lehrern offenbar Lösungen zur Verfügung stehen, werden sie im Buch nicht aufgeführt.

Dieses umfassende Buch dürfte für Lernende und Praktiker im Bereich des maschinellen Lernens von großem Interesse sein.

Bewertet von Patrick Hill CEng MBCS CITP
05/14/2020
Hirst Barley

Dies kann ein sehr gutes Nachschlagewerk für maschinelles Lernen werden. Eine gute Ergänzung zur Mustererkennung und zum maschinellen Lernen von Bishop.
05/14/2020
Waldo Faigle

Das beste Buch über maschinelles Lernen, das ich gelesen habe, besonders für diejenigen von uns, die den Bayes'schen Ansatz zur Wahrscheinlichkeit mögen und verstehen. Es ist ziemlich mathematisch schwer und Code leicht, aber es gibt viel Code zur Verfügung; Schauen Sie sich den neuen Python-Code für die nächste Ausgabe an (der selbst wahrscheinlich noch besser sein wird als diese Ausgabe, denke ich).
05/14/2020
Ailey Scicutella

Dieses Buch ist unglaublich. Ich lese es sehr gerne. Kevin Murphy ist ein großartiger Lehrer und ein ausgezeichneter Forscher. Sie können viele Erkenntnisse erhalten, die in praktischen Büchern oder Blogs fehlen.
Es gibt viele Tippfehler in den ersten 3 Drucken. Der 4. (und später) ist viel besser. Was ich gekauft habe (11), ist der 24. Druck (der gleiche wie der 2017.).
05/14/2020
Bowyer Stipe

Oxford Wörterbuch für maschinelles Lernen. Klare Formeln.
Der einzige Nachteil ist, dass es an Material für Deep-Learning-Techniken mangelt.
05/14/2020
Constance Bien

Entweder eine Statistikperspektive oder eine Optimierungsperspektive hat ihre eigenen Einschränkungen. Vielleicht könnte ein Ansatz wie der SGVB eine vielversprechende Option sein.
05/14/2020
Jennine Dobbar

Solides Handbuch für das ML-Feld. Obwohl ich das Schreiben als schwer empfunden habe und es nicht einfach war, die Konzepte zu verstehen, musste man sich nach Seiten umsehen.
05/14/2020
Davidoff Cesar

Ich lese bis 3.5 (P82, Naive Bayes-Klassifikatoren) und finde es zu schwierig und abstrakt, um fortzufahren. Em ... Vielleicht sollte ich von einem einfacheren ausgehen?
05/14/2020
Ruddy Decandia

Solide, aber es brauchte eine bessere Notation. Die Notation wurde am Ende sehr umständlich und verdeckte einen Großteil der Intuition hinter dem, was vor sich ging.

Hinterlassen Sie eine Bewertung zu Maschinelles Lernen: Eine probabilistische Perspektive


Nützliche Links