最新要闻
- 全球消息!苹果何时大降价?iPhone 14 Plus成系列销量最差:用户宁愿买安卓
- 焦点信息:寓言诚不欺我!网友拍下现实版“乌鸦喝水”
- 焦点报道:儿子篮球班倒闭家长花1000万买下 网友:这就是钞能力
- 全球热议:999元卷王小金刚!优派推出VX2758显示器:27英寸2K/170Hz
- 15万就能买特斯拉?特斯拉宣布重大目标:成本降低50%
- 哪吒汽车2月份交付10073台 同比大涨41.5%
- 未成年人沉迷短视频得治 TikTok默认限制每天可刷一小时
- “自己造自己” 特斯拉人形机器人亮相!马斯克承认罕见事实
- 【世界速看料】腾讯新游《黎明觉醒:生机》开放60帧:骁龙888、iPhone 13以上都能开
- 每日视点!印度男子展示绝技“乌鸦召唤术” 网友:在古代至少巫师级别
- 全省严查!正在进行!
- 每日看点!马斯克大力推荐!特斯拉Cybertruck实车亮相:超级未来感
- 天天消息!马斯克宏图计划公布:储能240TWh 制造投资10万亿美元
- 日本死亡人数是新生儿数量两倍有多可怕:850万“幽灵屋”遍布全国
- 信息:特斯拉下一代电机将不需要任何稀土成分!马斯克挑战全球车企
- 一加Ace 2V 12+256G起步行业罕见:友商还在搞8+128卡价位的版本
手机
iphone11大小尺寸是多少?苹果iPhone11和iPhone13的区别是什么?
警方通报辅警执法直播中被撞飞:犯罪嫌疑人已投案
- iphone11大小尺寸是多少?苹果iPhone11和iPhone13的区别是什么?
- 警方通报辅警执法直播中被撞飞:犯罪嫌疑人已投案
- 男子被关545天申国赔:获赔18万多 驳回精神抚慰金
- 3天内26名本土感染者,辽宁确诊人数已超安徽
- 广西柳州一男子因纠纷杀害三人后自首
- 洱海坠机4名机组人员被批准为烈士 数千干部群众悼念
家电
论文阅读笔记(四):AS-MLP AN AXIAL SHIFTED MLP ARCHITECTUREFOR VISION
1.摘要
本文提出了一种轴向移位的MLP体系结构(AS-MLP),更关注局部特征的交互,通过特征图的通道轴移动,AS-MLP能够从不同的轴获取信息,这使得网络能够捕捉局部依赖(可以理解为cnn的空间不变性),这样的操作使我们能够利用一个纯的MLP体系结构来实现与cnn类体系结构相同的局部感受野。我们也可以设计AS-MLP的感受野的大小和块的拓展。本文提出的AS-MLP架构在ImageNet-1K数据集上的表现优于所有基于MLP的架构,并且与基于transformer相比即使FLOPs稍低,也能获得具有竞争力的性能。此外,AS-MLP也是第一个应用于下游任务(如对象检测和语义分割)的基于mlp的体系结构。
2.引入
动机
- 最近,Tolstikhin等人(2021)首先提出了基于MLP的架构,其中几乎所有的网络参数都是从MLP(线性层)学习而来的。它取得了惊人的结果,可与cnn类模型相媲美。这些有希望的结果推动了我们对基于mlp架构的探索。
- MLP-Mixer 很少能充分利用局部信息,这在类cnn架构中是非常重要的因为并非所有像素都需要长期依赖,局部信息更多地关注于提取底层特征。Swin Transformer一个窗口(7×7)中计算自注意,而不是全局接收域,这类似于直接使用一个大内核大小的卷积层(7×7)来覆盖局部接收域。在这些思想的驱动下,本文主要探讨局部性对基于mlp的体系结构的影响。
- 如果将窗口切分(比如说7*7)并在窗口内做token混合映射,那么线性层中窗口间共享49 *49参数,这极大的限制了模型的容量,影响了参数的学习和最终结果。相反的,如果线性层没有在窗口之间共享,用固定的图像大小训练的模型权值不能适应不同输入大小的下游任务,因为不固定的输入大小会导致窗口数量的不匹配。因此,更理想的引入局域性的方法是直接对任意位置的特征点与其周围特征点之间的关系建模,而不需要预先设置固定的窗口(以及窗口大小)
主要工作
【资料图】
提出了一种基于mlp架构的轴向转移策略,在该架构中,我们在水平和垂直方向上对特征进行空间转移。
之后,通道混合MLP融合(通过1*1卷积实现)这些特征,使模型能够获得局部依赖关系。
1*1卷积图示
3.结论
本文提出了一个轴向移动的MLP架构,命名为AS-MLP,用于视觉。与MLP-Mixer相比更注重局部特征的提取,通过简单的特征轴向移动,充分利用了不同空间位置之间的通道相互作用。通过所提出的AS-MLP,进一步提高了基于mlp的体系结构的性能,实验结果令人印象深刻。本文模型在ImageNet-1K数据集上的Top-1精度为83.3%,参数为88M, GFLOPs为15.2。这种简单而有效的方法优于所有基于mlp的体系结构,并且与基于变压器的体系结构相比,即使FLOPs略低,也能获得具有竞争力的性能。本文也是第一个将AS-MLP应用于下游任务(例如,对象检测和语义分割)的研究。与基于变压器的体系结构相比,结果也具有竞争力,甚至更好,这表明基于mlp的体系结构在处理下游任务方面的能力。
4.相关工作
MLP- mixer (Tolstikhin et al., 2021)设计了一个非常简洁的框架,利用矩阵变换和MLP在空间特征之间传递信息,并取得了很好的性能。并发工作FF (Melas-Kyriazi, 2021)也采用了类似的网络架构,并得出了类似的结论。随后,本文提出了Res-MLP (Touvron et al., 2021a),该算法仅在ImageNet-1K上训练剩余MLP,也获得了令人印象深刻的性能。gMLP (Liu et al., 2021a)和EA (Guo et al., 2021)分别引入了空间门单元(SGU)和外部关注来改善纯基于mlp的架构的性能。最近,Container (Gao等人,2021年)提出了一种统一卷积、变压器和MLP-Mixer的通用网络。S2-MLP (Yu et al., 2021)使用空间平移MLP进行特征交换。ViP (Hou等人,2021年)。提出了一种用于空间信息编码的Permute-MLP层,以捕获远程依赖。与这些工作不同的是,我们专注于在空间维度上捕获具有轴向移动特征的局部依赖关系,从而获得更好的性能,并可应用于下游任务。此外,还提出了与我们最接近的并行工作CycleMLP (Chen et al., 2021b)和S2-MLPv2 (Yu et al., 2021)。S2-MLPv2改进了S2-MLP, CycleMLP设计了Cycle full - connected Layer (Cycle FC),以获得比Channel FC更大的接收域。
5.网络结构
对于一个RGB图像,I \(\in R^{3 \times H \times W}\),H和W代表图像的高度和宽度,同时,AS-MLP进行了patch切分操作,这一操作将原图像切分为大小\(4 \times 4\)的大小,这样的操作,使得所有token(这里token指的是每一个4* 4的图像块)的组合将变为\(48 \times \frac{H}{4} \times \frac{W}{4}\)的大小(这样的原因可以理解为原先输入的是单个的像素点,而现在是将4 *4的图像块当作输入),AS-MLP有四个阶段,在第一阶段,对每个token做线性嵌入和AS-MLP,输出大小为\(C \times \frac{H}{4}\times \frac{W}{4}\);在第二阶段,首先对上一阶段输出的特征进行patch merge,将相邻的2 × 2个patch进行分组,得到\(4C \times \frac{H}{8} \frac{W}{8}\),然后采用线性层将feature大小变形为\(2C×\frac{H}{8} ×\frac{W}{8}\),然后是级联的AS-MLP块.阶段3和阶段4的结构与阶段2相似,层次表示将在这些阶段生成。下图是一个AS-MLP块内进行的操作。
Linear Embedding
PatchEmbed
是一个将输入图像转换为图像块的模块。在模块初始化时,我们需要指定输入图像的大小img_size
、图像块的大小patch_size
、输入图像的通道数in_chans
和输出特征图的通道数embed_dim
等参数。此外,我们还可以指定一种归一化方法(例如,nn.LayerNorm
)作为可选参数norm_layer
。在
forward
方法中,PatchEmbed
首先通过nn.Conv2d
将输入图像x
划分成多个大小为patch_size
的图像块,然后将所有图像块展平成一维向量,最终返回特征向量x
。如果指定了归一化方法,则在将图像块展平之前对每个图像块应用归一化操作。经过这个操作之后,输出的形状是(B,embed_dim,H_patch,W_patch),其中H_patch和W_patch是输入图像划分成的patch数量,由输入图像尺寸和patch_size计算得到。输出的图像将传入AS-MLP 块AS-MLP Block
# norm: normalization layer# proj: channel projection# actn: activation layerimport torchimport torch.nn.functional as Fdef shift(x, dim):x = F.pad(x, "constant", 0)x = torch.chunk(x, shift_size, 1)x = [ torch.roll(x_s, shift, dim) for x_s,shift in zip(x, range(-pad, pad+1))]x = torch.cat(x, 1)return x[:, :, pad:-pad, pad:-pad]def as_mlp_block(x):shortcut = xx = norm(x)x = actn(norm(proj(x)))x_lr = actn(proj(shift(x, 3)))x_td = actn(proj(shift(x, 2)))x = x_lr + x_tdx = proj(norm(x))return x + shortcut
为了理解这个过程,我们拿一个(3,5,5)的torch张量,通道1数据设为1,通道2数据设为2,通道3设为3做演示,这里shift_size取5,因此pad=1,这里的proj是1*1卷积。
经过填充之后,
切分之后
x = [ torch.roll(x_s, shift, dim) for x_s,shift in zip(x, range(-pad, pad+1))],这里演示对H维的操作
x = torch.cat(x, 0)
x=x[:, pad:-pad, pad:-pad]
这里是对H维进行shift操作之后的torch张量,我们同样可以得到W维进行shift操作的torch张量
对于得到的两个维度经过shift操作之后的图片,我们在进行1*1卷积进行通道信息融合(proj操作)
该公式计算的是某一个像素点在经过AS-MLP 块之后的像素值,\(W^{as-h},W^{as-v} \in R^C\)信道投影的可学习权值在水平和垂直方向上。对于一个三通道的图像,\(Y_{i,j}\)也是三通道的,这样需要对X使用三个三通道的1*1卷积,对于每一个通道的\(Y_{i,j}\),我们可以通过上面所举的例子总结规律,\(Y_{i,j}\)的计算实际上是通过\(X_{i",j}\)和\(X_{i,j"}\)计算的,这里\(X_{i",j}\)是经过H维度shift操作之后与\(Y_{i,j}\)对应的像素点,\(X_{i,j"}\)是经过W维度shift操作之后与\(Y_{i,j}\)对应的像素点,以上面举例的经过H维度shift操作的特征图为例,对于通道一,当前位置为(3,3)的像素点,在经过shift操作之前位置是(5,3),对于通道二,当前位置为(3,3)的像素点,在经过shift操作之前的位置为(3,4),对于通道三,当前位置为(3,3)的像素点,在经过shift操作之前位置为(3,3),由此,我们可以知道,\(X_{i,j}\)位置的像素点,在经过shift操作之后的位置坐标,与通道数、shift_size、膨胀率d有关,我们可以使用不同的通道时、shift_size,膨胀率举例,可以总结出上式的规律。经过AS-MLP后,特征图形状不变,为\(C \times \frac{h}{4}\times \frac{W}{4}\)
由上式也可推得某一像素点的感受野。
LayerNorm:Layer Normalization是一种常见的神经网络正则化方法,它可以用来加速训练和提高模型的性能。相比于Batch Normalization,Layer Normalization不需要对一个批次内的数据进行统计计算,而是对每个样本进行独立的归一化处理。假设有一个大小为\((n,m)\)的张量\(X\),其中\(n\)表示样本数,\(m\)表示特征数。对于每个样本\(x_i\),可以计算出该样本所有特征值的均值和方差:
\[\mu_i=\frac{1}{m} \sum_{j=1}^{m}x_{ij}\]\[\sigma_i^2=\frac{1}{m}\sum_{j=1}^{m}{(x_{ij}-\mu_i)^2}\]然后可以对每个样本进行归一化处理:
\[\check{x}_{ij}=\frac{x_{ij}-\mu_i}{\sqrt{\sigma_i^2+\epsilon}}\]最后,可以将归一化后的特征值\(\hat{x}_i\)和一个可学习的权重向量\(w\)进行线性变换,得到输出特征值:
\[y_i=\omega \cdot \check{x}_i+b\]其中,\(w\)和\(b\)是可学习的参数,用来调整输出特征值的幅度和偏置。
与BN的区别:
相比于Batch Normalization,Layer Normalization的主要区别在于计算统计量的方式。Batch Normalization是对一个批次内的所有样本进行统计计算,然后对每个样本进行归一化处理;而Layer Normalization是对每个样本单独进行统计计算和归一化处理,不需要考虑批次的大小和分布。因此,Layer Normalization更加适合处理样本数较少或者样本分布不均匀的情况,而Batch Normalization则更加适合处理大批量的数据。此外,Layer Normalization可以更好地处理RNN等序列模型,因为它不需要对序列进行批次划分。但是,相比于Batch Normalization,Layer Normalization的训练速度和收敛速度较慢,且需要更多的内存空间。
另外,由于Batch Normalization是对整个批次进行归一化处理,因此它可以有效地减少内部协变量移位(Internal Covariate Shift)的影响,从而加速模型训练和提高模型的稳定性。而Layer Normalization在处理协变量移位时的效果相对较差。但是,相比于Batch Normalization,Layer Normalization的输出更加稳定,因为它不会受到批次内样本数量的影响。
Patch Merging
实现了将一个尺寸为 \(B\times C\times H\times W\) 的输入特征 x,转化为一个尺寸为 \(B\times 4C\times \frac{H}{2}\times \frac{W}{2}\) 的输出特征,其中输入的 \(H\) 和 \(W\) 需要是偶数,转化方式如下实际上实现了下采样的过程,通道数加倍,长宽减半:- 将 \(x\) 按照 \(H\) 和 \(W\) 方向上每隔两个元素取一个进行切片,即将 \(H\times W\) 的矩阵转化为 \(\frac{H}{2}\times\frac{W}{2}\times 4\) 的四维张量,四个维度对应四个切片;
- 将四个切片沿着第二个维度进行拼接,即将 \(\frac{H}{2}\times\frac{W}{2}\times C\) 的四个张量拼接成 \(\frac{H}{2}\times\frac{W}{2}\times 4C\) 的张量;
- 对拼接后的张量在第二个维度上应用 LayerNorm;
- 对应用 LayerNorm 后的张量应用 \(1\times 1\) 的卷积变换,将通道数从 \(4C\) 减少为 \(2C\)。
随后将进入下一个AS-MLP块,第三四阶段过程和第二阶段相同
6.实验
imagenet-1k数据集上的图像分类:为了评估AS-MLP的有效性,在ImageNet-1K基准上进行了图像分类的实验,该实验收集于(Deng et al., 2009)。它包含1.28万张训练图像和来自1000个类的20K张验证图像。我们报告了单作物Top-1精度的实验结果。我们使用的初始学习率为0.001,带有余弦衰减和20个时期的线性预热。AdamW (Loshchilov & Hutter, 2019)优化器被用于训练300个时代的整个模型,批处理大小为1024。遵循Swin Transformer (Liu et al., 2021b)的训练策略,我们还使用平滑比为0.1的标签平滑(Szegedy et al., 2016)和DropPath (Huang et al., 2016)策略。我们将所有的网络架构划分为基于cnn、基于transformer和基于mlp的架构。输入分辨率为224 × 224。当保持类似的参数和FLOPs时,我们提出的AS-MLP的性能优于其他基于mlp的体系结构。例如,与Mixer-B/16 (Tolstikhin et al., 2021)(76.4%)和ViP-Medium/7 (Hou et al., 2021)(82.7%)相比,AS-MLP-S以更少的参数获得更高的top-1精度(83.1%)。此外,与基于变压器的架构相比,它获得了具有竞争力的性能,例如AS-MLP- b(83.3%)与swi -b (Liu等人,2021b)(83.3%),这表明了我们的AS-MLP架构的有效性。
as-mlp块的选择和影响:
AS-MLP块的不同配置:
- 零填充比其他填充方式更合适
- 增大膨胀率回事AS-MLP性能有所下降,通常使用图像膨胀进行语义分割而不是图像分类
- 当增大shift_size时,精度先增大后减小,可能的原因是接收域被放大时,更关注全局依赖关系,这会使得对局部特征的提取被忽略,因此在实验中使用的是shift size = 5,零填充,膨胀率= 1
连接类型:在不同的shift_size上,并联方式的性能始终优于串联方式,说明了并联方式的有效性。当位移大小为1时,串行连接较好,但由于只使用信道混合的MLP,串行连接不具有代表性。
AS-MLP块的影响。我们还评估了表4中AS-MLP块的影响。我们设计了5条基线:i) Global-MLP;ii) AxialMLP;iii) Window-MLP;Iv)位移大小(5,1);v)位移大小(1,5)。前三条基线从如何利用MLP进行不同位置的特征融合的角度设计,后两条基线从单一方向的轴向位移的角度设计。具体设置请参见附录A.5。表4中的结果显示,我们的移动大小为(5,5)的AS-MLP块的表现优于其他基线。
coco上的对象检测
在ade20k上进行语义分割
7.讨论
在本文中,我们提出了一个轴向移动的MLP架构,命名为AS-MLP,用于视觉。与MLP-Mixer相比,我们更注重局部特征的提取,通过简单的特征轴向移动,充分利用了不同空间位置之间的通道相互作用。通过所提出的AS-MLP,我们进一步提高了基于mlp的体系结构的性能,实验结果令人印象深刻。我们的模型在ImageNet-1K数据集上的Top-1精度为83.3%,参数为88M, GFLOPs为15.2。这种简单而有效的方法优于所有基于mlp的体系结构,并且与基于变压器的体系结构相比,即使FLOPs略低,也能获得具有竞争力的性能。我们也是第一个将AS-MLP应用于下游任务(例如,对象检测和语义分割)的研究。与基于变压器的体系结构相比,结果也具有竞争力,甚至更好,这表明基于mlp的体系结构在处理下游任务方面的能力。在未来的工作中,我们将研究AS-MLP在自然语言处理中的有效性,并进一步探讨AS-MLP在下游任务中的性能。
-
论文阅读笔记(四):AS-MLP AN AXIAL SHIFTED MLP ARCHITECTUREFOR VISION
1 摘要本文提出了一种轴向移位的MLP体系结构(AS-MLP),更关注局部特征的交互,通过特征图的通道轴移动,...
来源: -
(数据库系统概论|王珊)第七章数据库设计-第五、六节:物理结构设计和数据库的实施和维护
pdf下载:密码7281专栏目录首页:【专栏必读】(考研复试)数据库系统概论第五版(王珊)专栏学习笔记目...
来源: 论文阅读笔记(四):AS-MLP AN AXIAL SHIFTED MLP ARCHITECTUREFOR VISION
(数据库系统概论|王珊)第七章数据库设计-第五、六节:物理结构设计和数据库的实施和维护
全球消息!苹果何时大降价?iPhone 14 Plus成系列销量最差:用户宁愿买安卓
焦点信息:寓言诚不欺我!网友拍下现实版“乌鸦喝水”
焦点报道:儿子篮球班倒闭家长花1000万买下 网友:这就是钞能力
全球热议:999元卷王小金刚!优派推出VX2758显示器:27英寸2K/170Hz
15万就能买特斯拉?特斯拉宣布重大目标:成本降低50%
哪吒汽车2月份交付10073台 同比大涨41.5%
未成年人沉迷短视频得治 TikTok默认限制每天可刷一小时
“自己造自己” 特斯拉人形机器人亮相!马斯克承认罕见事实
【世界速看料】腾讯新游《黎明觉醒:生机》开放60帧:骁龙888、iPhone 13以上都能开
每日视点!印度男子展示绝技“乌鸦召唤术” 网友:在古代至少巫师级别
读Java性能权威指南(第2版)笔记06_数据库性能JPA&SpringData
全省严查!正在进行!
每日看点!马斯克大力推荐!特斯拉Cybertruck实车亮相:超级未来感
天天消息!马斯克宏图计划公布:储能240TWh 制造投资10万亿美元
日本死亡人数是新生儿数量两倍有多可怕:850万“幽灵屋”遍布全国
信息:特斯拉下一代电机将不需要任何稀土成分!马斯克挑战全球车企
环球新动态:Spark系列 - (5) Spark Shuffle
热消息:Fireasy3 揭秘 -- 万物伊始(依赖注入与服务发现)
全球信息:英语四级阅读技巧
一加Ace 2V 12+256G起步行业罕见:友商还在搞8+128卡价位的版本
实时:Redmi Note 12 Pro极速版12+256G到手1999元:开机就是MIUI 14
造车新势力2月交付量出炉:理想、蔚来、哪吒破万 零跑压力大
【全球速看料】厦门征求意见!过马路玩手机或将罚款50元 你支持吗?
世界快看:东风概念飞行汽车外观曝光!“鸥翼门”相当炫酷
【当前热闻】2018巴彦淖尔国际马拉松
环球焦点!胡明轩:平时杜导叫我和徐杰一起训练 要求我们承担起更多责任
世界快讯:makefile
基于alpine基础镜像构建jdk镜像以及tomcat镜像及业务构建
Linux极简入门系列(六):其它补充
CSS全局关键字
环球聚焦:委员建议隔周三休成热搜第一 网友吵翻 专家:很难行得通
今日热闻!Model 2明天发?这款15万的特斯拉便宜车:马斯克已经说了17年
环球新消息丨LOJ 3276 JOISC 2020 Day2 遗迹 题解 (计数DP)
环球快资讯:MySQL学习笔记-多表查询(上)
当前视讯!量化交易基础 - 011 - 样本外检验
风语筑(603466):上海风语筑文化科技股份有限公司关于股东权益变动比例超过1%的提示性公告
天天观察:希望工程发文感谢《原神》玩家 5天9万多人捐赠240万元
世界聚焦:“刺客”又来了!网友称买到1600元一斤话梅:每颗至少20元
“窄边教科书”上新!戴尔XPS15 9530发布:13代酷睿+RTX 40配8TB SSD
环球微动态丨孟菲斯动物园发大熊猫丫丫新动态 网友:尽快回国!
曝苹果屏下Face ID技术有缺憾:2026年才会趋于完美
C++ STL学习笔记-C++ STL基础
焦点讯息:4-Ribbon负载均衡
信息:可取代eSIM:更完美的iSIM卡来了
二月浏览器大战结果出炉:微软Edge用户数不升反降
头条:《王者荣耀》干将莫邪画中仙皮肤公布:中国古风莫邪绝美
环球微头条丨k8s之list-watch机制、节点调度以及亲和性
全球速讯:记录--虚拟滚动探索与封装
天天百事通!(数据库系统概论|王珊)第七章数据库设计-第四节:逻辑结构设计
焦点热议:Cesium 几何体贴模型 sampleHeight(二十二)
环球滚动:苏富比春拍上海预展即将开展,近150件藏品由谁保驾护航?
全球即时看!蔚来2022年财报公布:全年营收492亿元 同比大涨36%
天天资讯:建议元宵节放假1天:提升人民幸福指数
环球通讯!超19万辆!比亚迪2月新能源销量公布:暴打新势力全家
全球微头条丨2023五一档电影增至五部!哪部对你吸引力更大?
热点!Cesium Transform(二十)
世界速讯:第124篇: 期约Promise
怎么登录新浪微博网页版_如何登陆新浪微博
环球快报:刹车变硬踩不动遭车主集体投诉 铃木召回超7.8万辆汽车
【独家】好利来创始人之子回应开劳斯莱斯摆摊:没想博眼球
天天快播:AI小姐姐比真人还好看? N卡又抓到风口:8GB显存稳定绘图 首选RTX30/40系
春丽今天55岁了!网友:Coser我永远只服成龙大哥
速讯:URLDNS链分析
认识数据标签
每日速递:Python识别图形验证码实战项目
全球播报:记一次CPU占用持续上升问题排查(Nacos动态路由引起)
iOS应用发布ITMS-90704错误解决
荣耀“青海湖技术”揭晓:荣耀Magic5系列全球首发硅碳负极技术
国内专属!新款国产特斯拉Model Y升级悬架:终于不颠了
天天热门:功耗开放470W!影驰名人堂RTX 4080真是生猛
每日热讯!又一游戏成功“入奥”:育碧《舞力全开》入选2023年奥林匹克电子竞技项目
天天头条:女子幼儿园收童子尿煮鸡蛋 吃着香是浙江当地非遗:网友直呼酸爽
今日热闻!中国通才教育:已针对首次公开发售相关指控开展独立调查,将继续停牌
全球百事通!为什么95%的Java程序员人,都是用不好Synchronized?
每日时讯!Python教程:类的派生
你有“ChatGPT综合征”吗:想搞钱,或是失业焦虑?
Python教程:类的继承,什么是继承
加点广告怎么了 爱奇艺新专利可在弹幕中显示广告
环球动态:狂飙8000MHz!朗科Z RGB DDR5-8000 16GB电镀银内存图赏
每日短讯:1:1复刻仿生人手 现实版《西部世界》公司众筹开启
全球头条:5G是高铁 6G就是飞机!工信部:全面推进6G技术研发
焦点热文:公司丢货要求全体员工均摊1万赔款:新员工拒赔反被怀疑偷东西
天天观察:如何在Ubuntu上安装Nextcloud(适用于树莓派上的Ubuntu)
每日播报!Pod 进阶
每日快看:Zabbix“专家坐诊”第183期问答汇总
Spring中Bean的加载方式~
什么是Markdown
当前报道:纬德信息(688171)3月1日主力资金净买入105.72万元
旅俄大熊猫画风突变体重狂飙40公斤:摸爬滚打样样精通
百事通!特斯拉Model 2被曝成本大降37% 比丰田卡罗拉还低
世界短讯!打赢了!科比坠机照片泄露案其遗孀获赔2885万美元
天天热头条丨惊险一幕:女子用火车站自动扶梯运行李 把下面男子砸骨折
【全球速看料】玩游戏需自备爆米花:《最终幻想16》主线过场动画超11小时
当前快看:1000亿数据、30W级qps如何架构?来一个天花板案例
3-Eureka注册中心
天天精选!【验证码逆向专栏】某验三代、四代一键通过模式逆向分析
当前信息:索泰RTX 4090月白深度测试:真孤独求败!A卡没得玩了
网友晒视频广州一特斯拉在停车场连撞多车 司机下车就跑:又踩错了吗