Què és la variació del biaix en l'aprenentatge automàtic?



Aquest article tracta el concepte de biaix i variància en l'aprenentatge automàtic amb una relació entre ells que determina la precisió predictiva del model.

En , el rendiment d’un model es basa en les seves prediccions i en la forma en què es generalitza cap a dades independents i invisibles. Una manera de mesurar la precisió d’un model és tenint en compte el biaix i la variància del model. En aquest article, aprendrem com la diferència de biaix té un paper important a l’hora de determinar l’autenticitat del model. Els temes següents es tracten en aquest article:

Error irreductible

Qualsevol model a s’avalua en funció de l’error de predicció en un nou conjunt de dades independents i invisibles. L’error no és altra cosa que la diferència entre la sortida real i la sortida prevista. Per calcular l'error, fem la suma de l'error reduïble i irreductible, és a dir, una descomposició de biaix-variància.





L’error irreversible no és res més que aquells errors que no es poden reduir independentment de cap que utilitzeu al model. Es produeix per variables inusuals que influeixen directament en la variable de sortida. Per tant, per fer el vostre model eficient, ens queda l’error reduïble que hem d’optimitzar a tota costa.

Un error reduïble té dos components: Biaix i variació , la presència de biaix i de variància influeixen en la precisió del model de diverses maneres overfitting, underfitting , Etc.Vegem el biaix i la variància per entendre com tractar l’error reduïble a .



Què és el biaix en l'aprenentatge automàtic?

El biaix és bàsicament fins a quin punt hem predit el valor del valor real. Diem que el biaix és massa alt si les prediccions mitjanes estan molt lluny dels valors reals.

Un biaix elevat farà que l'algorisme perdi un patró o relació dominant entre les variables d'entrada i sortida. Quan el biaix és massa alt, se suposa que el model és bastant simple i no comprèn la complexitat del conjunt de dades per determinar la relació i, per tant,causant infraestructura.

Variació en un model d'aprenentatge automàtic?

En un conjunt de dades independent o invisible o en un conjunt de validació. Quan un model no funciona tan bé com fa amb el conjunt de dades entrenat, hi ha la possibilitat que el model tingui una variància. Bàsicament, explica la dispersió dels valors predits dels valors reals.



Una gran variància en un conjunt de dades significa que el model s’ha entrenat amb molt soroll i dades irrellevants. D’aquesta manera, es provoca un ajust excessiu del model. Quan un model té una gran variància, es fa molt flexible i fa prediccions equivocades per a nous punts de dades. Perquè s'ha sintonitzat amb els punts de dades del conjunt d'entrenament.

Intentem també comprendre matemàticament el concepte de variació de biaix. Deixem que la variable que estem predint sigui Y i que les altres variables independents siguin X. Suposem que hi ha una relació entre les dues variables tal que:

I = f (X) + i

A l’equació anterior, aquí és és l'error estimat amb un valor mitjà 0. Quan fem un classificador mitjançant algorismes com regressió lineal , , etc, l'error quadrat esperat en el punt x serà:

err (x) = Bias2+ Variancia + error irreductible

Comprenguem també com afectarà la variació parcial a Aprenentatge automàtic rendiment del model.

Com afecta el model d'aprenentatge automàtic?

Podem situar la relació entre la variació del biaix en quatre categories que s'enumeren a continuació:

  1. Variació alta-Biaix elevada: el model és inconsistent i, a més, és imprecís
  2. Variació baixa-biaix alta: els models són consistents, però de mitjana baixos
  3. Biaix de variació alta-baixa: una mica precís, però incoherent en les mitjanes
  4. Variació baixa-Biaix baixa: és l'escenari ideal, el model és coherent i precís de mitjana.

biaix-variància en aprenentatge automàtic-edureka

Tot i que detectar biaixos i variàncies en un model és força evident. Un model amb una gran variància tindrà un error d'entrenament baix i un error de validació elevat. I en el cas de biaix elevat, el model tindrà un error d'entrenament elevat i l'error de validació és el mateix que l'error d'entrenament.

Tot i que la detecció sembla fàcil, la veritable tasca és reduir-la al mínim. En aquest cas, podem fer el següent:

  • Afegiu més funcions d’entrada
  • Més complexitat introduint característiques polinòmiques
  • Disminueix el termini de regularització
  • Obtenir més dades de formació

Ara que sabem què és el biaix i la variància i com afecta el nostre model, fem una ullada a una compensació de la biacia-variació.

Compensació de la variació del biaix

Trobar l’equilibri adequat entre el biaix i la variància del model s’anomena compensació Bias-Variance. Bàsicament, és una manera d’assegurar-se que el model no estigui excessivament equipat ni estigui infraequipat.

Si el model és massa senzill i té molt pocs paràmetres, patirà un biaix elevat i una baixa variància. D'altra banda, si el model té un gran nombre de paràmetres, tindrà una alta variància i un biaix baix. Aquesta compensació hauria de donar lloc a una relació perfectament equilibrada entre tots dos. Idealment, el biaix baix i la baixa variància són l'objectiu de qualsevol model d'aprenentatge automàtic.

total Error

En qualsevol model d’aprenentatge automàtic, un bon equilibri entre el biaix i la variància serveix com a escenari perfecte en termes de precisió predictiva i d’evitar l’adequació, la insuficiència total. Un equilibri òptim entre el biaix i la variància, en termes de complexitat d’algoritmes, assegurarà que el model mai s’adequa ni s’adequa.

L’error quadrat mitjà en un model estadístic es considera la suma del biaix al quadrat i de la variància i variància de l’error. Tot això es pot posar dins d'un error total en què tenim biaix, variància i error irreductible en un model.

Comprenem com podem reduir l’error total amb l’ajut d’una implementació pràctica.

Hem creat un fitxer classificador de regressió lineal al Regressió lineal en aprenentatge automàtic article sobre Edureka mitjançant el conjunt de dades de diabetis al mòdul de conjunts de dades de scikit aprendre biblioteca.

Quan vam avaluar l’error quadrat mitjà del classificador, vam obtenir un error total al voltant de 2.500.

què està alerta a javascript

Per reduir l'error total, hem alimentat més dades al classificador i, a canvi, l'error quadrat mitjà s'ha reduït a 2000.

Es tracta d’una implementació senzilla de reduir l’error total aportant més dades de formació al model. De la mateixa manera, podem aplicar altres tècniques per reduir l’error i mantenir un equilibri entre el biaix i la variància per obtenir un model d’aprenentatge automàtic eficient.

Això ens porta al final d’aquest article, on hem après la variació parcial a Machine Learning amb la seva implementació i cas d'ús. Espero que tingueu clar tot el que us ha estat compartit en aquest tutorial.

Si heu trobat rellevant aquest article sobre 'Variació del biaix en l'aprenentatge automàtic', consulteu el document una empresa d'aprenentatge en línia de confiança amb una xarxa de més de 250.000 estudiants satisfets repartits per tot el món.

Som aquí per ajudar-vos en cada pas del vostre viatge i oferir un pla d’estudis dissenyat per a estudiants i professionals que vulguin ser . El curs està dissenyat per donar-vos un avantatge en la programació de Python i formar-vos tant per a conceptes bàsics com avançats de Python juntament amb diversos M'agrada , , Etc.

Si teniu alguna pregunta, no dubteu a fer-vos totes les vostres preguntes a la secció de comentaris de 'Variació parcial en l'aprenentatge automàtic' i el nostre equip estarà encantat de respondre-us.