Radial Base em Funções, RBF Kernels, & Redes RBF Explicado de forma simples

Um diferente paradigma de aprendizagem

Andre Vós

Siga

Sep 26, 2020 · 7 min de leitura

Aqui é um conjunto de dados unidimensional: sua tarefa é encontrar uma maneira perfeitamente separar os dados em duas classes, com uma linha.

À primeira vista, isso pode parecer ser uma tarefa impossível, mas é só por isso, se nos restringimos a uma dimensão.

vamos introduzir uma função ondulada f (x) e mapear cada valor de x para sua saída correspondente. Convenientemente, Isso torna todos os pontos azuis mais altos e os pontos vermelhos mais baixos nos locais certos. Podemos então desenhar uma linha horizontal que divide de forma limpa as classes em duas partes.

Esta solução parece muito sorrateiro, mas podemos generalizá-lo com a ajuda de base radial funções (RBFs). Embora tenham muitos casos de uso especializados, um RBF inerentemente é simplesmente uma função cujos pontos são definidos como distâncias de um centro. Os métodos que usam RBFs compartilham fundamentalmente um paradigma de aprendizagem diferente da tarifa padrão de aprendizado de máquina, que é o que os torna tão poderosos.

por exemplo, a curva de sino é um exemplo de um RBF, uma vez que os pontos são representados como número de desvios padrão da média. Formalmente, podemos definir uma RBF como uma função que pode ser escrita como:

Nota o dobro de tubos (informalmente, neste caso de uso) representar a idéia de ‘distância’, independentemente da dimensão de x. Por exemplo,

Este é o “raio” aspecto da ‘função de base radial’. Pode-se dizer que as funções de base radial são simétricas em torno da origem.

a tarefa mencionada acima-separando magicamente pontos com uma linha-é conhecida como kernel da função de base radial, com aplicativos no poderoso algoritmo Support Vector Machine (SVM). O objetivo de um’ truque do kernel ‘ é projetar os pontos originais em alguma nova dimensionalidade, de modo que se torne mais fácil separar por meio de métodos lineares simples.

tome um exemplo mais simples da tarefa com três pontos.

Vamos desenhar uma distribuição normal (ou de outra arbitrário RBF função) centrada em cada um dos pontos.

em Seguida, podemos inverter todos os radiais base em funções para pontos de dados de uma classe.

Se somarmos todos os valores de base radial funções em cada ponto x, temos um intermediário ‘global’ função semelhante a este:

Temos atingido nossa ondulado função global (vamos chamá-lo de g(x))! Ele funciona com todos os tipos de layouts de dados, devido à natureza da função RBF.

nossa função RBF de escolha – a distribuição normal-é densa em uma área central e menos em todos os outros lugares. Portanto, ele tem muita influência em decidir o valor de g (x) quando os valores de x estão perto de sua localização, com a diminuição da potência à medida que a distância aumenta. Esta propriedade torna as funções RBF poderosas.

quando mapeamos todos os pontos originais no local x até o ponto (x, g(x)) no espaço bidimensional, os dados sempre podem ser separados de forma confiável, desde que não sejam muito barulhentos. Ele sempre será mapeado de acordo com a densidade adequada dos dados devido à sobreposição de funções RBF.

na verdade, combinações lineares de-adição e multiplicação — funções de base Radial podem ser usadas para aproximar quase qualquer função bem.

Uma função (preto) usada para o modelo de pontos de dados (roxo), composta de vários RBF funções (sólido linhas coloridas). Fonte. Imagem livre para compartilhar

as redes radiais de base levam essa ideia a sério, incorporando ‘neurônios radiais de base’ em uma rede simples de duas camadas.

O vetor de entrada é o n-dimensional de entrada em que uma classificação ou regressão de tarefas (apenas um neurônio de saída) está sendo executado no. Uma cópia do vetor de entrada é enviada para cada um dos seguintes neurônios de base radial.

cada neurônio RBF armazena um vetor ‘central’ – este é simplesmente um vetor único do conjunto de treinamento. O vetor de entrada é comparado ao vetor central e a diferença é conectada a uma função RBF. Por exemplo, se os vetores central e de entrada fossem os mesmos, a diferença seria zero. A distribuição normal em x = 0 é 1, então a saída do neurônio seria 1.

portanto, o vetor ‘central’ é o vetor no centro da função RBF, uma vez que é a entrada que produz a saída de pico.

da Mesma forma, se a central e a entrada de vetores são diferentes, a saída do neurônio decai exponencialmente para zero. O neurônio RBF, então, pode ser pensado como uma medida não linear de similaridade entre a entrada e os vetores centrais. Como o neurônio é baseado em raio radial-a magnitude do vetor de diferença, não a direção, é importante.

por último, os aprendizados dos nós RBF são ponderados e somados por meio de uma conexão simples com a camada de saída. Os nós de saída fornecem grandes valores de peso aos neurônios RBF que têm importância específica para uma categoria e pesos menores para neurônios cujas saídas importam menos.

por que a rede de base radial adota uma abordagem de “similaridade” com a modelagem? Pegue o seguinte exemplo Conjunto de dados bidimensional, onde os vetores centrais de vinte nós RBF são representados com um ‘+’.

Deixe uma resposta

O seu endereço de email não será publicado.