Rbf 신경 네트워크 원리는 RBF 를 숨겨진 단위로 사용하는 "기본" 으로 암시적 레이어 공간을 구성하는 것입니다. 이렇게 하면 입력 벡터를 가중치 연결 없이 숨겨진 공간에 직접 매핑할 수 있습니다.
RBF 의 중심점이 결정되면 이 매핑 관계도 결정됩니다. 암시적 레이어 공간과 출력 공간 간의 매핑은 선형입니다. 즉, 네트워크의 출력은 숨겨진 셀 출력의 선형 가중치 합입니다. 여기서 가중치는 네트워크 조정 가능 매개변수입니다. 여기서 암시적 레이어의 역할은 낮은 차원의 P 에서 높은 차원의 H 로 벡터를 매핑하여 낮은 차원의 선형이 분리될 수 없는 경우 고차원까지 선형적으로 분리될 수 있도록 하는 것입니다. 주로 핵 함수의 아이디어입니다.
이렇게 하면 네트워크에서 출력으로의 매핑은 비선형이지만 네트워크 출력은 조정 가능한 매개변수에 대해 선형입니다. 네트워크의 가중치는 선형 방정식에 의해 직접 풀릴 수 있으므로 학습 속도가 크게 빨라지고 국부적인 최소 문제를 피할 수 있습니다.
확장 데이터
BP 신경 네트워크의 숨겨진 노드는 입력 모드와 가중치 벡터의 내부 곱을 활성화 함수의 인수로 사용하고 활성화 함수는 Sigmoid 함수를 사용합니다. 각 조정 매개변수는 BP 네트워크의 출력에 동등한 영향을 미치므로 BP 신경 네트워크는 비선형 매핑에 대한 전역 근사치입니다.
RBF 신경 네트워크의 숨겨진 노드는 입력 모드와 중심 벡터 사이의 거리 (예: 유럽식 거리) 를 함수 인수로 사용하고 가우스 함수와 같은 방사형 기본 함수를 활성화 함수로 사용합니다. 뉴런의 입력이 방사형 기저 함수 중심에서 멀어질수록 뉴런의 활성화 정도는 낮아진다 (가우스 함수).
RBF 네트워크의 출력은 일부 조정 매개변수와 관련이 있습니다. 예를 들어 wij 값은 하나의 yi 출력에만 영향을 주며 (위 2 장 네트워크 출력 참조), RBF 신경 네트워크는 "로컬 매핑" 특성을 가집니다.
바이두 백과-방사형 기초 함수 네트워크