Nova estratégia de treinamento para compressão de modelo de aprendizado profundo aplicada a classificação automática de modulações
Mateus Goldbarg, Marcelo A. C. Fernandes

DOI: 10.14209/sbrt.2022.1570824961
Evento: XL Simpósio Brasileiro de Telecomunicações e Processamento de Sinais (SBrT2022)
Keywords:
Abstract
Técnicas de aprendizado profundo, como redes neurais profundas (DNNs), têm sido utilizadas com sucesso em muitos problemas de classificação automática de modulações. No entanto, os algoritmos de aprendizado profundo exigem um grande esforço computacional e isto pode ser um gargalo para detecção de modulações em tempo real. Assim, este artigo propõe uma nova estratégia de treinamento que minimiza simultaneamente as perdas de poda e quantização no treinamento de modelos compactados para reduzir a complexidade computacional de DNNs. A estratégia de treinamento proposto foi aplicada no treinamento de classificação automática de sete modulações expressas como OOK, 4ASK, 16PSK, 64APSK, AM-DSB-WC, AM-DSB-SC e FM. Uma redução substancial de pesos e operações da DNN é demonstrada, mantendo alta precisão de classificação.

Download