0%
Azure Linux 服务器自动重启问题
发表于:
分类于:
折腾
神经网络训练一开始准确率很高然后逐渐下降的问题排查
发表于:
分类于:
学习
现象
神经网络训练,一开始准确率很高,然后逐渐下降。如下所示:
Epoch Time Train Loss Train ACC Val Loss Val ACC Test Loss Test ACC LR
1 197.8234 0.0053 0.8645 0.0412 0.1443 0.0412 0.1443 0.0100
2 108.6638 0.0084 0.7311 0.0272 0.1443 0.0272 0.1443 0.0100
3 108.4892 0.0095 0.6777 0.0267 0.1443 0.0267 0.1443 0.0100
4 108.8819 0.0087 0.7102 0.0269 0.1443 0.0269 0.1443 0.0100
5 108.8337 0.0065 0.7712 0.0504 0.1443 0.0504 0.1443 0.0100
6 109.4179 0.0061 0.8071 0.0624 0.1443 0.0624 0.1443 0.0100
7 109.2300 0.0057 0.8349 0.0762 0.1443 0.0762 0.1443 0.0075
8 109.2820 0.0101 0.6432 0.0245 0.1443 0.0245 0.1443 0.0075
具体现象是 Train ACC 一开始特别高,但 Val ACC 很低。随着 epoch 增加, Train ACC 开始下降,Val ACC 几乎不变。
各个数据结构和算法的复杂度总结
排序算法
排序算法 | 最坏时间复杂度 | 平均时间复杂度 | 最好时间复杂度 | 空间复杂度 | 是否稳定 | 是否原地 |
---|---|---|---|---|---|---|
选择排序 | n^2 | n^2 | n^2 | 1 | 不是 | 是 |
插入排序 | n^2 | n^2 | n | 1 | 是 | 是 |
归并排序 | nlogn | nlogn | nlogn | n | 是 | 不是 |
快速排序 | n^2 | nlogn | nlogn | logn | 不是 | 是 |
堆排序 | nlogn | nlogn | nlogn | 1 | 不是 | 是 |
Tree Sort | n^2 | nlogn | nlogn | 1 | 不是 | 是 |
- 快速排序空间复杂度的logn是递归过程的内存占用。
- 快速排序是否稳定和是否原地取决于分区函数,一般实现是原地排序并且不稳定。
- 堆排序建堆过程的时间复杂度是n。
- Tree Sort 构建过程是nlogn,遍历是n。如果树极度不平衡,则退化成链表,时间变成n^2。
数据结构
一些数据结构的操作的时间复杂度。