top of page
Introducere
Tipuri de Machine Learning
Modul de funcționare al unui sistem machine learning
Învățare liniară prin regresie

( 01 )

Tipuri de Machine Learning
Avansurile relativ recente în domeniul tehnologiei au dus la apariÈ›ia unui număr mare de dispozitive utilizate la scară largă. Odată cu conectarea acestora la Internet, cantități masive de date au început să fie adunate. Conform unei estimări bazate pe legea lui Moore, Google manevrează în fiecare zi 180 de Petabytes de date. Companiile au început să caute metode de a prezice comportamentul utiliazatorilor È™i de a lua decizii bazate pe aceste cantități enorme de date. Astfel a luat amploare fenomenul pe nume „Machine Learning”, ce reprezintă conceperea unor algoritmi ce sunt capabili să ofere predictii corecte pe baza datelor analizate anterior. Am ales această temă deoarece se află la îmbinarea dintre matematică È™i informatică È™i oferă o modalitate extrem de interesantă de a utiliza cunoÈ™tinÈ›e de matematică de bază È™i pentru că fenomenul a căpătat foarte multă expunere în ultima vreme, astfel există resurse foarte bune pentru cei aflaÈ›i la început de drum. Se poate ridica întrebarea dacă aceÈ™ti algoritmi reprezintă o formă de inteligență, iar în opinia mea răspunsul este nu deoarece, deÈ™i învață prin experiență, sunt limitaÈ›i strict la problema pentru care au fost concepuÈ›i È™i nu au putere de generalizare.

În această secÈ›iune vom analiza cele trei tipuri de Machine Learning: învățare supervizată, învățare nesupervizată È™i învățare prin întărire È™i vom dezvolta intuiÈ›ie pentru exemple È™i cazuri de utilizare.

Un alt tip de machine learning este învățarea prin întărire ce are ca scop dezvoltare unui sistem (agent) care îÈ™i îmbunătățeÈ™te performanÈ›ele pe baza interacÈ›iunilor cu mediul. Mediul transmite agentului È™i un semnal recompensă ce are rolul de a-l recalibra. Observăm asemănări cu învățarea supervizată, dar în acest caz funcÈ›ia de recompensă reprezintă o măsură a evaluării funcÈ›iei de recompensă È™i nu o etichetă ce reprezintă o categorie. Prin interacÈ›iunile cu mediul, un agent învață o serie de tactici ce maximizează valoarea funcÈ›iei recompensă. 

Învățare prin întărire

Principalul scop al acestui tip de învățare este de a învăța dintr-un set de date de antrenament care ne perminte mai apoi să facem predicÈ›ii cu privire la date ce vor fi obÈ›inute în viitor, deci sunt necunoscute. Aici termenul supervizată se referă la ideea că algoritmul primeÈ™te un set de date de antrenament atent selecÈ›ionate È™i marcate.

ÎnvătaÈ›are supervizată

Învățarea nesupervizată

În cazul învățării nesupervizate cunoaÈ™tem ne confruntăm cu date care nu sunt etichetate sau cu structuri de date necunoscute. Folosind acest tip de învățare explorăm setul de date pentru a extrage informaÈ›ii însemnate fără să cunoaÈ™tem în prealabil valoare variabilei de răspuns sau o funcÈ›ie de recompensă.

Tipuri de Machine Learning
Modul de funcționare al unui sistem machine learning

( 02 )

Un alt tip de machine learning este învățarea prin întărire ce are ca scop dezvoltare unui sistem (agent) care îÈ™i îmbunătățeÈ™te performanÈ›ele pe baza interacÈ›iunilor cu mediul. Mediul transmite agentului È™i un semnal recompensă ce are rolul de a-l recalibra. Observăm asemănări cu învățarea supervizată, dar în acest caz funcÈ›ia de recompensă reprezintă o măsură a evaluării funcÈ›iei de recompensă È™i nu o etichetă ce reprezintă o categorie. Prin interacÈ›iunile cu mediul, un agent învață o serie de tactici ce maximizează valoarea funcÈ›iei recompensă. 

Preprocesarea

Un alt tip de machine learning este învățarea prin întărire ce are ca scop dezvoltare unui sistem (agent) care îÈ™i îmbunătățeÈ™te performanÈ›ele pe baza interacÈ›iunilor cu mediul. Mediul transmite agentului È™i un semnal recompensă ce are rolul de a-l recalibra. Observăm asemănări cu învățarea supervizată, dar în acest caz funcÈ›ia de recompensă reprezintă o măsură a evaluării funcÈ›iei de recompensă È™i nu o etichetă ce reprezintă o categorie. Prin interacÈ›iunile cu mediul, un agent învață o serie de tactici ce maximizează valoarea funcÈ›iei recompensă. 

Antrenarea algoritmului, evaluare și obținerea predicției

Învățare liniară prin regresie

( 03 )

În această secÈ›iune va fi prezentat modul în care gradientul de coborâre este aplica în cazul învățării liniare prin regresie. Scopul algoritmului este de a putea oferi estimări bazându-se pe datele anterioare.

Matricea X reprezintă setul de date de antrenament cu m sample-uri (exemple) È™i n caracteristici. De asemenea, vom defini vectorul y ce reprezintă predicÈ›iile corecte pentru pentru sample-urile din matricea X. Definim predictorul, sau variabila de răspuns continuu ca o funcÈ›ie h : X → Y. Întregul scop al algoritmului este să determine parametrii funcÈ›iei h(x) (în general h este o funcÈ›ie polinomială), iar apoi predicÈ›iile se pot obÈ›ine prin aplicarea funcÈ›iei h pe un exemplu nou.

În cazul regresiei cu o singură variabilă funcÈ›ia h reprezintă dreapta de ecuaÈ›ie care se „potriveÈ™te” cel mai bine pe setul de date X È™i are forma h(X) =θ*X . Pentru a înÈ›elege modul în care această funcÈ›ie este calculată trebuie să definim o funcÈ›ie de cost, ce măsoară acurateÈ›ea funcÈ›ie noastre h. Această funcÈ›ie are ca parametru θ È™i se defineste ca media sumei pătratelor dintre diferenÈ›a valorii prezise de h È™i y. Deci funcÈ›ia de cost J se va exprima sub forma urmatoare.

Evident, ne dorim ca valorarea funcÈ›iei de cost pentru valoarea găsită θ să fie minimă. În cazul ideal, toate punctele se vor afla pe dreapta de ecuaÈ›ie definită de funcÈ›ia h, iar J(θ) = 0. J(θ) este minimă atunci când atingem un aÈ™a numit minim local (cele mai joase puncte al graficului indicate de săgeÈ›i). Ajungem din punctul de plecare la cel de minim local prin utilizarea derivatei funcÈ›iei de cost. Panta dreptei tangente la graficul funcÈ›iei într-un anume punct este egală cu derivata funcÈ›iei în acel punct È™i astfel vom cunoaÈ™te direcÈ›ia în care să avansăm spre minim. Dimensiune paÈ™ilor făcuÈ›i este determinată de un parametru α numit rată
de învățare.

AÈ™adar algoritmul descris, numit gradient de coborâre poate fi exprimat sub forma

Astfel, întregul scop al algoritmului este de calibra cei doi parametrii pentru a obÈ›ine o funcÈ›ie de cost minimă, deci implicit o dreaptă care să reprezinte cât mai fidel setul de date. Parametrul α este ales în general prin experimentare, acesta fiind important deoarece dacă este prea mic minimul local va fi atins cu greu, iar dacă este prea mare poate „sări” peste minimul local. În implementarea computerizată se recomandă utilizarea operaÈ›iilor vectoriale pentru a spori viteza implementării.

Întocmitor: Lazăr Vlad
Întocmitor: Lazăr Vlad
Întocmitor: Lazăr Vlad
Îndrumător: Ududec Marius
gasgasgasg
bottom of page