动手学深度学习
本文系统介绍了深度学习的基础理论与核心技术,涵盖了从线性代数、微积分等预备知识到线性神经网络和多层感知机的基本原理。在卷积神经网络(CNN)部分,重点分析了卷积层、池化层及现代网络如AlexNet、VGG和ResNet的架构及其在计算机视觉中的应用。随后,文章讲述了循环神经网络(RNN)的序列模型,探讨了GRU和LSTM在文本处理中的优势。接着,介绍了注意力机制及其在Seq2Seq中的应用,并深入讲解了自注意力和位置编码的原理。最后,文章解析了Transformer架构和BERT模型的预训练方法,展示了它们在自然语言处理中的重要性和卓越表现。
《RAPIER(简称)》论文阅读笔记
论文《Low-Quality Training Data Only? A Robust Framework for Detecting Encrypted Malicious Network Traffic》介绍了RAPIER,一个在低质量训练数据环境下检测加密恶意网络流量的框架。它利用深度生成模型进行数据分布估计,纠正错误标签,并通过集成学习提高检测精度。实验结果表明,RAPIER在多个公开数据集上表现出色,具备鲁棒性和高准确性。
微博网暴言论识别初尝试
这个项目的目的是开发一个自动化工具,以识别和分类微博上的网络暴力言论。考虑到微博平台的言论监管难度,尤其是隐晦和不易被发现的恶意表达,本文利用预训练语言模型和神经网络技术处理五万条微博评论数据,挑战在于准确区分出具有潜在伤害性但不明显的言论。项目通过敏感词库、语言模型(如COLD、SnowNLP)、以及word2vec等技术手段,将输出数据分类为明显恶意言论、隐晦恶意言论、存疑言论和正常言论,从而提高对网络暴力的识别率,保护用户权益,维护网络公正与和谐。
机器学习
未读
PyTorch入门-小土堆
本文通过详细代码示例,介绍了使用PyTorch进行深度学习的全过程,包括数据预处理、模型构建、训练、测试、以及使用预训练模型进行图片识别。初始部分展示了如何通过继承Dataset类加载和预处理图像数据。随后,通过TensorBoard的使用,展示了如何进行训练过程的可视化。接着,教程介绍了构建简单卷积神经网络(CNN)的方法,包括如何应用卷积层、池化层、ReLU激活函数、全连接层等基础神经网络构件。此外,还涉及了损失函数和优化器的选择,以及如何使用GPU加速训练过程。最后,教程通过加载预训练的模型,并对新的图像数据进行预测,展示了模型的实际应用。整个过程不仅涵盖了深度学习项目的典型步骤,还提供了关于模型保存、加载和转移学习的实用技巧。