AI, która uczy się na błędach, jak człowiek

AI, która uczy się na błędach, jak człowiek
Naukowcy z Microsoft Research Asia oraz uniwersytetów w Pekinie i Xi'an opracowali nową technikę doskonalenia zdolności dużych modeli językowych (LLM) w rozwiązywaniu problemów matematycznych poprzez uczenie się na błędach, podobnie jak ma to miejsce u ludzi. Technika nazwana Learning from Mistakes (LeMa), szkoli sztuczną inteligencję w korygowaniu własnych błędów, prowadząc do poprawy zdolności rozumowania.

Badacze najpierw zlecili modelom takim jak LLaMA-2 (Meta) wygenerowanie błędnych ścieżek rozumowania dla matematycznych zadań słownych. Następnie model OpenAI GPT-4 identyfikował błędy w rozumowaniu, wyjaśniał je i dostarczał poprawione ścieżki rozumowania. Naukowcy wykorzystali wynikowe dane do dalszego szkolenia. „W pięciu szkieletowych modelach LLM i dwóch zadaniach rozumowania matematycznego, LeMa konsekwentnie poprawia wydajność w porównaniu z dostrajaniem na samych danych w łańcuchu myślenia (CoT)”, wyjaśniają naukowcy w publikacji w arxiv.org.

Pojawienie się LeMa stanowi, wedle ocen ekspertów, ważny kamień milowy w dziedzinie sztucznej inteligencji, sugerując, że procesy uczenia maszynowego mogą być bardziej zbliżone do tego, jak uczą się ludzie. Badania zespołu, w tym ich kod, dane i modele, są teraz publicznie dostępne w serwisie GitHub. Open source zachęca szerszą społeczność AI do kontynuowania tej linii eksploracji, potencjalnie prowadząc do dalszych postępów w uczeniu maszynowym.

Źródło: venturebeat.com, Fot. lexica.art

Mirosław Usidus