Transfer Learning

Ein Modell von Grund auf zu trainieren, ist eine komplizierte und zeitaufwendige Angelegenheit. Doch statt ein eigenes Modell zu erstellen und es dann zu trainieren, kannst du ein vorhandenes Modell, das mit der Edge TPU des Dev Boards kompatibel ist, anpassen und teilweise umtrainieren. Diese Technik nennt sich Transfer Learning.

Ein neuronales Netzwerks von Grund auf zu trainieren, kann Tage an Rechenzeit in Anspruch nehmen. Zudem erfordert es eine große Menge an Trainingsdaten. Beim Transfer Learning kannst du mit einem Modell beginnen, das bereits für eine bestimmte Aufgabe trainiert ist, und dann ein zusätzliches Training durchführen, um dem Modell neue Klassifizierungen beizubringen.

Es gibt zwei unterschiedliche Techniken des Transfer Learning auf dem Dev Board Mini. Beim Weight Imprinting wird die Ausgabe des Basismodells verwendet. Diese Werte werden zur Berechnung neuer Gewichte in der letzten versteckten Schicht des neuronalen Netzwerks, direkt vor der Ausgabeschicht, eingesetzt. Das ermöglicht ein effektives Training neuer Klassen mit wenigen Beispielbildern. Backpropagation ist die traditionellere Trainingsstrategie, die im Allgemeinen eine höhere Genauigkeit erzielt, aber mehr Bilder und mehrere Trainingsiterationen erfordert. Auch hier werden nur die Gewichte für die letzte versteckte Schicht anhand der Abweichungen in der Ausgabeschicht aktualisiert. […]

Blog-Beitrag für Buyzero