Caso linealmente no separable de SVM

Autor: | Última modificación: 19 de diciembre de 2022 | Tiempo de Lectura: 2 minutos
Temas en este post: ,

Algunos de nuestros reconocimientos:

Premios KeepCoding

En este artículo veremos un caso linealmente no separable de SVM.

Recordemos que SVM significa support vector machines y que estas fueron concebidas para solucionar, principalmente, problemas de clasificación, aunque también funcionan con problemas de regresión.

¿Por qué Support Vectors?

Se puede demostrar que la solución de las SVM es una combinación lineal de las muestras de entrenamiento.

Caso linealmente no separable de SVM

Tenemos que α1 >= 0, pero para muchas muestras se cumple que α1 = 0 (solución dispersa).

Entonces, los vectores soporte son las muestras para las que α1 0.

¿Cuál es, pues, la interpretación física de los vectores soporte y por qué se llaman así?

Se puede demostrar que la solución es:

Caso linealmente no separable de SVM 1

Frontera de separación

Conocidos los pesos, la predicción se realiza a través de la fórmula:

Caso linealmente no separable de SVM 2

Producto escalar entre las muestras de entrenamiento y la muestra sobre la que queremos realizar la predicción.

Caso linealmente no separable de SVM

Hasta ahora hemos trabajado con un caso en el que las clases son claramente separables, esto es, no hay solapamiento entre ellas. No hablamos de fronteras no lineales, seguimos considerando que existe un hiperplano capaz de separar las clases, aunque con errores, se trata del caso linealmente no separable de SVM.

Caso linealmente no separable de SVM 3

Vamos a permitir errores, es decir, muestras dentro del margen o mal clasificadas. Exclusivamente a esas muestras les asignamos un error (slack variable).

Caso linealmente no separable de SVM 4

No obstante, penalizamos los errores con un coste C.

Caso linealmente no separable de SVM 5

Parámetro de regularización C

  • C: cota superior al número de errores.
  • Compromiso entre margen y errores en la solución.
Caso linealmente no separable de SVM 6
  • Si C es elevado y el margen estrecho, se le dará más peso a los errores. Esto implica alta complejidad.
  • Si C es pequeño y el margen estrecho, se le dará menos peso a los errores, lo cual implicará una baja complejidad.

La solución al caso linealmente no separable de SVM quedaría así:

Caso linealmente no separable de SVM 7

¿Quieres seguir aprendiendo sobre Big Data?

Si te ha interesado este tema sobre caso linealmente no separable de SVM y quieres seguir aprendiendo sobre Big Data, tenemos para ti el Big Data, Inteligencia Artificial & Machine Learning Full Stack Bootcamp, una formación de alta intensidad en la que tendrás la oportunidad de adquirir todas las herramientas teóricas y prácticas para incursionar en un mercado laboral lleno de buenas oportunidades. ¡No esperes más para iniciar tu ascenso al éxito y solicita más información ahora!

👉 Descubre más del Big Data, Inteligencia Artificial & Machine Learning Full Stack Bootcamp ¡Descarga el temario!

👉 Prueba el Bootcamp Gratis por una Semana ¡Empieza ahora mismo!

👉 Conoce nuestros otros Bootcamps en Programación y Tecnología

[email protected]

La IA no te quitará el trabajo, lo hará quien sepa usarla

Conviértete en Data Scientist con el único Bootcamp que además te formará en Inteligencia Artificial Generativa para potenciar tu perfil.