AI, która uczy się na błędach, jak człowiek
Badacze najpierw zlecili modelom takim jak LLaMA-2 (Meta) wygenerowanie błędnych ścieżek rozumowania dla matematycznych zadań słownych. Następnie model OpenAI GPT-4 identyfikował błędy w rozumowaniu, wyjaśniał je i dostarczał poprawione ścieżki rozumowania. Naukowcy wykorzystali wynikowe dane do dalszego szkolenia. „W pięciu szkieletowych modelach LLM i dwóch zadaniach rozumowania matematycznego, LeMa konsekwentnie poprawia wydajność w porównaniu z dostrajaniem na samych danych w łańcuchu myślenia (CoT)”, wyjaśniają naukowcy w publikacji w arxiv.org.
Pojawienie się LeMa stanowi, wedle ocen ekspertów, ważny kamień milowy w dziedzinie sztucznej inteligencji, sugerując, że procesy uczenia maszynowego mogą być bardziej zbliżone do tego, jak uczą się ludzie. Badania zespołu, w tym ich kod, dane i modele, są teraz publicznie dostępne w serwisie GitHub. Open source zachęca szerszą społeczność AI do kontynuowania tej linii eksploracji, potencjalnie prowadząc do dalszych postępów w uczeniu maszynowym.
Źródło: venturebeat.com, Fot. lexica.art
Mirosław Usidus