《Attention Is All You Need》解读

一、简介

“Attention Is All You Need” 是一篇由Ashish Vaswani等人在2017年发表的论文,它在自然语言处理领域引入了一种新的架构——Transformer。这个架构现在被广泛应用于各种任务,如机器翻译、文本摘要、问答系统等。Transformer模型的核心是“自注意力”(self-attention)机制,这一机制能够有效捕捉文本序列中的长距离依赖关系。
在这篇论文中,作者们提出了一个基于自注意力机制的模型,该模型完全摒弃了传统的循环神经网络(RNN)和卷积神经网络(CNN)中常用的序列顺序处理方式,而是通过自注意力机制来直接计算序列中任意两个位置之间的关联性。这种机制使得模型在处理长文本时能够更加高效,因为它可以同时考虑序列中的所有单词,而不是像RNN那样逐个处理。
Transformer模型由编码器(Encoder)和解码器(Decoder)组成,每个编码器和解码器又是由多层“自注意力层”和“前馈网络层”堆叠而成。自注意力层可以让模型在生成每个单词的时候考虑到序列中其他所有单词的影响,而前馈网络层则对每个位置的表示进行进一步的非线性变换。
论文还引入了“多头注意力”(Multi-Head Attention)机制,它通过将输入序列分割成多个“头”来同时进行自注意力计算,这样可以让模型在不同的表示子空间中学习到信息,增强了模型的表达能力。
此外,作者还提出了一种位置编码(Positional Encoding)方法,用来给模型提供关于单词在序列中位置的信息,这是因为Transformer模型本身并不具有捕捉序列顺序的能力。
“Attention Is All You Need” 论文的贡献在于证明了仅使用注意力机制,而不依赖RNN或CNN,也可以构建出高效、强大的模型。这一架构在许多NLP任务上都取得了突破性的成果,并且为后续的模型发展如BERT、GPT系列等提供了基础。
这篇论文的解读需要对深度学习、自然语言处理以及注意力机制有一定的理解。如果您需要更详细的技术性解读或对论文中的某一部分有具体的问题,请告知我,我将尽力提供帮助。

二、详解

根据提供的原论文内容,我们来完善每个章节的解读:

0. 摘要

摘要部分提供了对论文《Attention Is All You Need》的高层次概述,主要包括以下几个要点:

  1. 新模型架构: 提出了一种名为Transformer的新型神经网络架构,这种架构完全基于注意力机制,不再依赖于传统的递归神经网络(RNN)或卷积神经网络(CNN)。

  2. 简化与效率: Transformer模型摒弃了序列处理中的递归和卷积操作,从而简化了模型结构,并提高了并行化处理的能力。

  3. 机器翻译任务: 在两个机器翻译任务上进行了实验,分别是英语到德语和英语到法语的翻译,结果显示Transformer模型在质量上具有优势。

  4. 性能提升: 在WMT 2014 English-to-German翻译任务上,Transformer模型达到了28.4 BLEU分数,超过了之前所有模型,包括集成模型。在English-to-French翻译任务上,模型在训练3.5天后,取得了41.8 BLEU分数的新单模型最佳成绩。

  5. 训练时间: 强调了Transformer模型所需的训练时间显著少于之前的最佳模型,这意味着训练成本更低。

  6. 泛化能力: 展示了Transformer模型不仅在机器翻译任务上表现出色,还能够成功地应用到英语成分句法分析任务上,无论是使用大量训练数据还是有限数据。

  7. 开源代码: 提供了用于训练和评估模型的代码链接,供其他研究者使用和参考。

摘要是对整篇论文的精炼总结,突出了Transformer模型的核心贡献和实验结果。

1. 引言 (Introduction)

引言 (Introduction) 部分,论文主要讨论了以下几个方面:

  1. 现有模型的局限性:
    论文开始时提到,尽管循环神经网络(RNN)特别是长短期记忆网络(LSTM)和门控循环单元(GRU)在序列建模和机器翻译等任务中表现出色,但它们存在一些固有的局限性。例如,RNN的序列计算特性限制了模型在训练样本内的并行化能力,这在处理长序列时尤为关键。

  2. 注意力机制的重要性:
    作者强调注意力机制已成为各种序列建模和转换模型的核心部分,它允许模型不考虑输入或输出序列中的距离来建立依赖关系。

  3. Transformer模型的创新点:
    论文提出了Transformer模型,这是一种全新的模型架构,它完全基于注意力机制,不使用递归神经网络。这种架构允许更多的并行化,并且在训练时间上大大减少。

  4. 性能表现:
    作者指出Transformer模型在翻译质量上达到了新的最佳状态,并且在训练效率上也有显著提升。例如,在八块P100 GPU上仅训练12小时就能达到新的最佳翻译质量。

  5. 模型架构的优势:
    论文讨论了Transformer模型相对于现有模型的优势,包括简化的模型结构、提高的并行处理能力以及在不同任务上的泛化能力。

  6. 未来工作:
    论文最后指出了Transformer模型的潜力,并展望了未来的研究方向,包括将其应用于其他任务和探索局部、受限的注意力机制,以有效处理大型输入和输出,如图像、音频和视频。

引言部分为读者提供了Transformer模型的背景、动机和预期贡献的概述,为理解全文内容奠定了基础。

2. 背景 (Background)

背景 (Background) 部分,论文主要讨论了以下内容:

  1. 减少序列计算的目标:论文介绍了减少序列计算的重要性,这是Transformer模型设计的核心目标之一。减少序列计算有助于提高模型的并行处理能力,从而加快训练速度。

  2. 现有模型的问题:讨论了现有模型,如基于卷积神经网络的Extended Neural GPU、ByteNet和ConvS2S,它们使用卷积作为基本构建块,尽管这些模型可以并行计算隐藏表示,但它们在处理长距离依赖时存在局限性。

  3. 长距离依赖的挑战:论文指出,在各种序列转换任务中,学习长距离依赖是一个关键挑战。长距离依赖的学习能力受到网络中前向和后向信号必须穿越的路径长度的影响。

  4. Transformer模型的优势:论文提出,Transformer模型通过使用自注意力机制,将任意两个输入或输出位置之间的关系的计算复杂度降低到恒定数量的操作,这与基于卷积的模型形成对比,后者随着位置间距离的增加而增加计算复杂度。

  5. 自注意力机制:自注意力(Self-attention)有时也称为内部注意力(intra-attention),它关联单个序列的不同位置,以计算序列的表示。自注意力已成功应用于多种任务,包括阅读理解、摘要生成、文本蕴含和学习任务独立的句子表示。

  6. 端到端记忆网络:论文还提到了基于循环注意力机制的端到端记忆网络,这些网络在简单语言问答和语言建模任务上表现良好。

  7. Transformer模型的创新性:论文强调,据作者所知,Transformer是第一个完全依靠自注意力来计算输入和输出表示的转换模型,它不使用序列对齐的RNN或卷积。

背景部分为读者提供了Transformer模型的理论基础和研究背景,解释了为什么需要一种新的模型架构,以及Transformer模型是如何在这样的背景下应运而生的。

3. 模型架构 (Model Architecture)

  • Transformer模型遵循编码器-解码器结构,其中编码器将输入序列映射到连续表示,解码器则基于此生成输出序列。
  • 编码器和解码器都由多层相同的堆叠层组成,每层包括多头自注意力机制和逐位置的全连接前馈网络。
  • 模型中使用了残差连接和层归一化来提高训练稳定性。
    在这里插入图片描述
3.1 编码器和解码器堆栈 (Encoder and Decoder Stacks)
  • 编码器结构:由N个相同的层组成,每个层包括多头自注意力机制和前馈网络。文中N=6,每层的输出通过残差连接和层归一化处理。
  • 解码器结构:同样由N个相同的层组成,但每层除了自注意力和前馈网络外,还增加了一个针对编码器输出的多头注意力层。解码器的自注意力层经过修改,以防止在未来位置的标记上产生依赖,保持解码顺序的自回归特性。
3.2 注意力机制 (Attention)
  • 查询、键、值 (Q, K, V):注意力机制通过查询与键的匹配来计算值的加权和。
    在这里插入图片描述

  • 缩放点积注意力 (Scaled Dot-Product Attention):使用点积计算查询和键之间的相似度,然后通过softmax函数进行归一化,得到权重。
    在这里插入图片描述

  • 多头注意力 (Multi-Head Attention):将输入的Q、K、V通过不同的线性变换映射到多个头,每个头独立计算注意力,然后将结果合并,允许模型在不同位置关注不同表示子空间的信息。

3.2.1 缩放点积注意力 (Scaled Dot-Product Attention)
  • 介绍了缩放点积注意力的计算方法,包括点积后的缩放因子 1 / d k 1/\sqrt{d_k} 1/dk ,目的是防止softmax函数进入梯度极小的区域。
3.2.2 多头注意力 (Multi-Head Attention)
  • 解释了多头注意力的工作原理,包括如何使用不同的线性变换来处理Q、K、V,以及如何并行处理多个头的输出。
3.2.3 注意力在模型中的应用
  • 编码器-解码器注意力:解码器层的查询使用前一层的输出,而键和值来自编码器的输出。
  • 编码器自注意力:所有Q、K、V来自编码器前一层的输出。
  • 解码器自注意力:允许解码器的每个位置关注到该位置之前的所有位置。
3.3 逐位置前馈网络 (Position-wise Feed-Forward Networks)
  • 描述了前馈网络的结构,包括两个线性变换和一个ReLU激活函数,这些操作对每个位置分别独立应用。
3.4 嵌入和Softmax (Embeddings and Softmax)
  • 讨论了输入和输出嵌入层的使用,以及如何通过共享权重矩阵将嵌入层与预Softmax线性变换联系起来。
3.5 位置编码 (Positional Encoding)
  • 由于模型中没有递归或卷积来捕捉序列顺序,因此引入位置编码来提供序列中每个标记的位置信息。
  • 位置编码使用不同频率的正弦和余弦函数,允许模型学习相对位置信息。

这部分内容详细阐述了Transformer模型的各个组成部分以及它们是如何协同工作的,从而为读者提供了对模型架构的深入理解。

4. 自注意力的优势 (Why Self-Attention)

在第四部分 Why Self-Attention(自注意力的优势)中,论文主要阐述了自注意力机制相对于传统序列处理方法(如循环神经网络RNN和卷积神经网络CNN)的几个关键优势:

  1. 计算复杂性(Computational Complexity):

    • 自注意力层的计算复杂度为O(n²·d),其中n是序列长度,d是表示维度。这使得自注意力层在处理长序列时比RNN和CNN更高效,尤其是当序列长度n小于表示维度d时。
  2. 并行化能力(Parallelization):

    • 自注意力层可以在常数时间内处理整个序列,而RNN层需要按顺序逐步处理,这限制了其并行化能力。自注意力层的这种特性使得模型能够更快速地训练,特别是在现代硬件上。
  3. 长距离依赖(Long-Range Dependencies):

    • 自注意力层通过减少学习长距离依赖所需的路径长度,提高了模型学习这些依赖的能力。在自注意力网络中,任意两个位置之间的路径长度是恒定的,而在RNN中这个长度是线性的,CNN则取决于卷积核的大小或扩张率。
  4. 最大路径长度(Maximum Path Length):

    • 论文中还讨论了不同层类型的最大路径长度,自注意力层提供了所有位置之间的最短路径。
  5. 可解释性(Interpretability):

    • 自注意力层可能产生更可解释的模型。通过分析注意力分布,可以观察到模型如何关注输入序列的不同部分,这有助于理解模型的决策过程。
  6. 限制自注意力的范围(Restricted Self-Attention):

    • 论文提出,为了处理更长的序列,可以限制自注意力的范围,只考虑输入序列中与当前输出位置邻近的一小部分位置。这将增加最大路径长度,但减少计算量。
  7. 效率和性能(Efficiency and Performance):

    • 自注意力机制不仅提高了计算效率,还有助于提升模型性能,尤其是在处理具有复杂结构的序列数据时。

这部分内容强调了自注意力机制在Transformer模型中的核心作用,以及它如何克服传统序列模型的一些限制,从而在各种序列转换任务中取得更好的性能。

5. 训练 (Training)

根据论文的第五部分 训练 (Training),以下是按照章节的详细解读:

5.1 训练数据和批处理 (Training Data and Batching)
  • 论文指出了用于训练的数据集是标准的WMT 2014英德和英法数据集,这些数据集包含了数百万的句子对。
  • 数据经过字节对编码(BPE)处理,以减少词汇量并提高模型的泛化能力。
  • 批处理是按照源序列和目标序列的大致相同长度进行的,每个批次包含了大约25000个源标记和25000个目标标记。
5.2 硬件和调度 (Hardware and Schedule)
  • 训练使用的硬件是配备了8个NVIDIA P100 GPU的机器。
  • 基础模型训练了100,000步或大约12小时,而大型模型训练了300,000步,大约3.5天。
5.3 优化器 (Optimizer)
  • 论文中选用了Adam优化器,这是一种常用于深度学习的标准优化算法。
  • 优化器的参数包括β1=0.9,β2=0.98和ϵ=10^-9,这些参数有助于优化训练过程。
5.4 正则化 (Regularization)
  • 论文采用了三种正则化方法:
    • 残差dropout:在每个子层的输出上应用dropout,以减少过拟合。
    • 标签平滑:在训练期间使用标签平滑,使模型学习更加不确定,有助于提高模型的泛化能力。
    • 权重衰减:对模型参数进行L2正则化,以进一步防止过拟合。

这些正则化技术共同作用于模型,以提高其在看不见的数据上的鲁棒性。

6. 结果 (Results)

根据论文的第6部分 结果 (Results),以下是按照章节的详细解读:

6.1 机器翻译 (Machine Translation)
  • 性能比较: 论文报告了Transformer模型在WMT 2014英德和英法翻译任务上的性能。在英德翻译任务上,大型Transformer模型(Transformer (big))以28.4 BLEU分数超越了之前所有报道的模型,包括集成模型。在英法翻译任务上,该模型也取得了41.0 BLEU分数,超越了所有之前发布的单一模型。
  • 训练成本: 论文强调Transformer模型的训练成本远低于竞争模型。例如,在英德翻译任务上,基础模型在训练成本上仅为其他竞争模型的一小部分。
  • 模型配置: 论文列出了取得最佳结果的模型配置,包括层数、隐藏层维度、注意力头数等。
6.2 模型变体 (Model Variations)
  • 注意力头数和维度: 论文探讨了改变注意力头数和每个头的维度对模型性能的影响。发现单头注意力的性能低于最佳设置,而太多的头也会导致性能下降。
  • 注意力键大小: 减少注意力键的维度会损害模型质量,表明确定兼容性不是一件容易的事情,可能需要比点积更复杂的兼容性函数。
  • 模型大小和dropout: 更大的模型通常表现更好,dropout对于避免过拟合非常有帮助。
  • 位置编码: 使用学习到的位置嵌入代替正弦波位置编码,结果与基础模型几乎相同。
6.3 英语成分句法分析 (English Constituency Parsing)
  • 泛化能力: 为了评估Transformer模型是否能够泛化到其他任务,作者在英语成分句法分析任务上进行了实验。尽管这个任务的输出受到强结构约束,并且输出比输入长得多,但Transformer模型仍然表现出色。
  • WSJ数据集: 在Penn Treebank的WSJ部分上训练了一个4层Transformer模型,大约有40K训练句子。还在半监督设置下使用更大的数据集进行了训练。
  • 性能: Transformer模型在成分句法分析任务上的表现优于所有先前报道的模型,除了Recurrent Neural Network Grammar。

第6部分的结果展示了Transformer模型在多个自然语言处理任务上的有效性和优越性,不仅在机器翻译领域取得了突破性的性能,还在句法分析等其他任务上展现了良好的泛化能力。

7. 结论 (Conclusion)

  • 创新性: 论文首先强调了Transformer模型的创新之处,即它是第一个完全基于注意力机制的序列转换模型,用多头自注意力替代了编码器-解码器架构中常用的循环层。

  • 性能提升: 作者指出,在WMT 2014英德和英法翻译任务上,Transformer模型不仅达到了新的最佳性能,而且在某些情况下,甚至超越了之前所有报道的集成模型。

  • 训练效率: 论文突出了Transformer模型的训练效率,与传统的基于RNN或CNN的架构相比,它可以显著更快地训练,这在资源和时间有限的研究和应用环境中尤为重要。

  • 未来工作: 作者表达了对基于注意力模型的未来发展的兴奋,并提出了几个未来的研究方向:

    • 将Transformer模型扩展到除文本之外的其他输入和输出模态,如图像、音频和视频。
    • 探索局部、受限的注意力机制,以高效处理大型输入和输出。
    • 研究如何使生成过程更少依赖序列化,这可能涉及到开发新的模型结构或训练策略。

结论部分为整篇论文画上了句号,总结了Transformer模型的主要贡献,并展望了基于注意力机制的模型在未来的发展潜力和应用前景。通过强调模型的创新性和效率,以及对未来研究方向的规划,论文为读者提供了对Transformer模型深远影响的认识。

附录和致谢 (Appendix and Acknowledgements)

  • 论文提供了注意力分布的可视化分析,展示了模型是如何关注句子中不同部分的。
  • 作者对提供有益评论、更正和灵感的同事表示感谢。

参考文献 (References)

  • 论文列出了相关工作的参考文献,为进一步研究提供了资源。

这个解读基于提供的PDF文件内容,涵盖了论文的主要章节和关键点。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mfbz.cn/a/785046.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

使用paddleOCR训练自己的数据集到ONNX推理

一、环境安装 1、安装paddlepaddle; https://www.paddlepaddle.org.cn/ 这里安装2.6.1的话使用onnx会出现swish算子报错的问题 python -m pip install paddlepaddle-gpu2.5.2 -i https://pypi.tuna.tsinghua.edu.cn/simple验证是否成功安装 python import paddl…

超详细kkFileView打包部署Windows或Liunx

目录 前言 下载源码编辑打包 Windows下的部署 Liunx下的部署 前言 本文章主要以下载源码 自己编译打包的方式进行部署。 因为4.0.0之后官方不在初始jar包,所以自己拉代码吧,别偷懒,顺便看看代码怎么写的。 码云: kkFileView 下载源代码为4.4.0-beta版本,亲测可用 下载源…

软件架构之开发方法

软件架构之开发方法 第6章:开发方法6.1 软件生命周期6.2 软件开发模型6.2.1 瀑布模型6.2.2 演化模型6.2.3 螺旋模型6.2.4 增量模型6.2.5 构件组装模型 6.3 统一过程6.4 敏捷方法6.4.1 极限编程6.4.2 特征驱动开发6.4.3 Scrum6.4.4 水晶方法6.4.5 其他敏捷方法 6.5 软…

AJAX快速入门(一) express框架的安装和使用范例

主打一个有用 首先保证安装了nodejs环境 打开终端 初始化npm npm init安装express npm i express测试样例 目录结构 样例代码 express.js //引入express const express require(express);//创建应用对象 const app express();//创建路由规则 //req是请求对象&#x…

Centos7 安装老版本的chrome

查看自己linux是哪个centos版本 使用以下命令: cat /etc/centos-release我这里是centOS 7。然后在安装最新版的google-chrome时,总是会报错显示存在依赖环境的问题,使得无法安装成功chrome。 Package: google-chrome-stable (/google-chro…

YOLOv10改进 | 添加注意力机制篇 | 添加FocusedLinearAttention助力yolov10实现有效涨点(含二次创新PSA机制)

一、本文介绍 本文给大家带来的改进机制是Focused Linear Attention(聚焦线性注意力)是一种用于视觉Transformer模型的注意力机制(但是其也可以用在我们的YOLO系列当中从而提高检测精度),旨在提高效率和表现力。其解决了两个在传统线性注意力…

windows电脑桌面便签在哪里找?

在忙碌的工作中,我们经常会有很多事情需要记住。这时,电脑桌面便签就成为了我们的好帮手。那么,在Windows电脑上,我们该如何找到桌面便签呢?下面,就让我来为大家详细介绍一下。 其实,Windows电…

FFmpeg 实现从麦克风获取流并通过RTMP推流

使用FFmpeg库实现从麦克风获取流并通过RTMP推流,FFmpeg版本为4.4.2-0。RTMP服务器使用的是SRS,我这边是跑在Ubuntu上的,最好是关闭掉系统防火墙。拉流端使用VLC。如果想要降低延时,请看我另外一篇博客,里面有说降低延时…

前端Canvas入门——怎么用Canvas画一些简单的图案

Canvas作为前端的画图工具&#xff0c;其实用途还是蛮广泛的&#xff0c;但是很多前端学习课程其实都很少涉及到这块内容。 于是乎&#xff0c;就写下这个了。 当然啦&#xff0c;目前还在学习摸索中。 一些实战代码&#xff0c;仅供参考&#xff1a; <canvasid"ctx&…

Onekey正版steam分流下载工具

今天给大家介绍的是一款下载steam游戏的工具。Onekey工具&#xff0c;是一款游戏下载器&#xff0c;可以下载steam正版分流游戏。下载正版分流的网站很多&#xff0c;但是都是网盘或者迅雷下载&#xff0c;或者游戏盒子下载&#xff0c;速度都很慢。这款软件是用steam下载的&am…

《Windows API每日一练》9.1 资源-图标

本节讲述图标、鼠标指针位图、字符串资源表、自定义资源的添加和应用。 本节必须掌握的知识点&#xff1a; 图标 第56练&#xff1a;ICON图标资源 鼠标指针位图 字符串资源表 自定义资源 第57练&#xff1a;字符串资源表和自定义资源 9.1.1 图标 在 Windows 窗口编程中&…

机场的出租车问题折线图

分析并可视化机场离场车辆数数据 本文将详细介绍如何使用Python的正则表达式库re和绘图库matplotlib对机场离场车辆数数据进行分析和可视化。以下是具体步骤和代码实现。 数据资源&#xff1a; 链接&#xff1a;https://pan.baidu.com/s/1rU-PRhrVSXq-8YdR6obc6Q?pwd1234 提…

AutoCAD 2025:探索设计的未来

AutoCAD 2025是Autodesk公司推出的一款最新版本的计算机辅助设计&#xff08;CAD&#xff09;软件。作为一名长期使用AutoCAD的用户&#xff0c;我深感这款软件在设计、绘图和建模方面的卓越性能。以下是我对AutoCAD 2025功能的详细介绍以及我的使用体验。 AutoCAD 2025的主要…

Linux学习笔记(二)账户和组

一、基本概念 用 户&#xff1a;用户id&#xff0c;被称为UID 基本组&#xff1a;账户id&#xff0c;被称为GID。用户只能加一个基本组。 0代表超级管理员&#xff0c;root账号。 附加组&#xff1a;用户能加多个基本组。 二、添加账户和组 创建用户名tom&#xff0c;失效…

星间链路与星地链路

目录 一、星间链路 1.1 层内星间链路&#xff08;Intra-layer ISLs&#xff09; 1.2 层间星间链路&#xff08;Inter-layer ISLs&#xff09; 1.3 实现方式 1.3.1 微波链路 1.3.2 激光链路 二、星地链路 2.1 星地链路的关键特性 2.1.2 Ka信关站 2.1.2 Q/V信关站 2.1…

【uniapp-ios】App端与webview端相互通信的方法以及注意事项

前言 在开发中&#xff0c;使用uniapp开发的项目开发效率是极高的&#xff0c;使用一套代码就能够同时在多端上线&#xff0c;像笔者之前写过的使用Flutter端和webview端之间的相互通信方法和问题&#xff0c;这种方式本质上实际上是h5和h5之间的通信&#xff0c;网上有非常多…

科研绘图系列:R语言分组柱状图一(Grouped Bar Chart)

介绍 分组柱状图(Grouped Bar Chart)是一种数据可视化图表,用于比较不同类别(分组)内各子类别(子组)的数值。在分组柱状图中,每个分组有一组并列的柱子,每个柱子代表一个子组的数值,不同的分组用不同的列来表示。 特点: 并列柱子:每个分组内的柱子是并列的,便于…

【LLM】二、python调用本地的ollama部署的大模型

系列文章目录 往期文章&#xff1a; 【LLM】一、利用ollama本地部署大模型 目录 文章目录 前言 一、ollama库调用 二、langchain调用 三、requests调用 四、相关参数说明&#xff1a; 总结 前言 本地部署了大模型&#xff0c;下一步任务便是如何调用的问题&#xff0c…

科普文:K8S中常见知识点梳理

简单说一下k8s集群内外网络如何互通的 要在 Kubernetes&#xff08;k8s&#xff09;集群内外建立网络互通&#xff0c;可以采取以下措施&#xff1a; 使用service&#xff1a; 使用Service类型为NodePort或LoadBalancer的Kubernetes服务。这可以使服务具有一个公共IP地址或端口…

探展2024世界人工智能大会之令人惊艳的扫描黑科技~

文章目录 ⭐️ 前言⭐️ AIGC古籍修复文化遗产焕新⭐️ 高效的文档图像处理解决方案⭐️ AIGC扫描黑科技一键全搞定⭐️ 行业级的知识库大模型加速器⭐️ 结语 ⭐️ 前言 大家好&#xff0c;我是 哈哥&#xff08;哈哥撩编程&#xff09;&#xff0c;这次非常荣幸受邀作为专业…