Przejdź do zawartości

Uczenie transferowe

Z Wikipedii, wolnej encyklopedii

Uczenie transferowe (ang. transfer learning) technika uczenia maszynowego, w której wiedza uzyskana przez algorytm w jednym zadaniu jest ponownie wykorzystywana w celu zwiększenia wydajności w zadaniu pokrewnym[1]. Na przykład w przypadku klasyfikacji obrazów wiedzę zdobytą przez algorytm podczas nauki rozpoznawania samochodów można wykorzystać przy rozpoznawaniu ciężarówek. Typowym przykładem uczenia transferowego jest wielokrotne stosowanie gotowych warstw w sieci neuronowej[2]. Uczenie transferowe przyspiesza proces uczenia, a także wymaga mniejszej ilości danych uczących[2].

Przypisy

[edytuj | edytuj kod]
  1. Jeremy West: Spring Research Presentation: A Theoretical Foundation for Inductive Transfer. 2007. [dostęp 2007-08-05]. [zarchiwizowane z tego adresu (2007-08-01)].
  2. a b Aurélien Géron, Uczenie maszynowe z użyciem Scikit-Learn i TensorFlow, Krzysztof Sawka (tłum.), Wydanie II, aktualizacja do modułu TensorFlow 2, Gliwice: Helion, 2020, s. 347, ISBN 978-83-283-6002-0 [dostęp 2024-08-26] (pol.).