你当前正在访问 Microsoft Azure Global Edition 技术文档网站。 如果需要访问由世纪互联运营的 Microsoft Azure 中国技术文档网站,请访问 https://docs.azure.cn

@azure/search-documents package

AzureKeyCredential

支持更新基础密钥值的基于静态密钥的凭据。

GeographyPoint

表示全局坐标中的地理点。

IndexDocumentsBatch

用于对索引使用多个文档执行批处理操作的类。

KnowledgeRetrievalClient

类过去用来对知识库执行作。

SearchClient

用于对搜索索引执行操作的类,包括查询索引中的文档以及添加、更新和删除它们。

SearchIndexClient

用于执行管理(创建、更新、列出/删除)索引 & 同义词映射的作的类。

SearchIndexerClient

用于执行管理(创建、更新、列出/删除)索引器、数据源 & 技能集的作的类。

SearchIndexingBufferedSender

用于对搜索索引执行缓冲操作的类,包括添加、更新和删除它们。

接口

AIServices

人工智能服务的参数。

AIServicesAccountIdentity

一个关联技能集的 Azure AI 服务资源的多区域账户。

AIServicesAccountKey

Azure AI服务资源的账户密钥,关联到技能集,用于该资源的子域。

AnalyzeRequest

指定用于将文本分解为标记的一些文本和分析组件。

AnalyzeResult

在文本上测试分析器的结果。

AnalyzedTokenInfo

有关分析器返回的令牌的信息。

AsciiFoldingTokenFilter

如果存在此类等效项,则将前 127 个 ASCII 字符(“基本拉丁语”Unicode 块)中的字母、数字和符号 Unicode 字符转换为其 ASCII 等效项。 此令牌筛选器是使用 Apache Lucene 实现的。

AutocompleteItem

自动完成请求的结果。

AutocompleteRequest

模糊匹配和其他自动完成查询行为的参数。

AutocompleteResult

自动完成查询的结果。

AzureActiveDirectoryApplicationCredentials

为搜索服务创建的已注册应用程序的凭据,用于对 Azure 密钥保管库 中存储的加密密钥进行身份验证的访问权限。

AzureBlobKnowledgeSource

Azure Blob 存储知识源的配置。

AzureBlobKnowledgeSourceParameters

Azure Blob 存储知识源的参数。

AzureBlobKnowledgeSourceParams

指定 Azure Blob 知识源的运行时参数

AzureMachineLearningVectorizer

指定通过 Azure AI Foundry 模型目录部署的 Azure 机器学习 端点,用于生成查询字符串的向量嵌入。

AzureOpenAIEmbeddingSkill

允许使用 Azure OpenAI 资源为给定文本输入生成矢量嵌入。

AzureOpenAIParameters

指定用于连接到 Azure OpenAI 资源的参数。

AzureOpenAIVectorizer

包含特定于在查询时使用 Azure Open AI 服务进行矢量化的参数。

BM25Similarity

基于 Okapi BM25 相似性算法的排名函数。 BM25 是一种类似于 TF-IDF 的算法,包括长度规范化(由“b”参数控制)以及术语频率饱和(由“k1”参数控制)。

BaseAzureMachineLearningVectorizerParameters

指定所有 AML 向量器身份验证类型之间通用的属性。

BaseCharFilter

字符筛选器的基类型。

BaseCognitiveServicesAccount

用于描述附加到技能集的任何 Azure AI 服务资源的基类型。

BaseDataChangeDetectionPolicy

数据更改检测策略的基类型。

BaseDataDeletionDetectionPolicy

数据删除检测策略的基类型。

BaseKnowledgeBaseActivityRecord

作业记录的基本类型。 跟踪知识库操作的执行细节、时序和错误。

BaseKnowledgeBaseMessageContent

指定消息内容的类型。

BaseKnowledgeBaseModel

指定模型用于查询规划的连接参数。

BaseKnowledgeBaseReference

参考的基本类型。

BaseKnowledgeRetrievalReasoningEffort

推理努力的基础类型。

BaseKnowledgeSource

表示知识源定义。

BaseKnowledgeSourceParams

知识源运行时参数的基础类型。

BaseKnowledgeSourceVectorizer

指定用于知识源嵌入模型的矢量化方法。

BaseLexicalAnalyzer

分析器的基类型。

BaseLexicalNormalizer

规范化器的基类型。

BaseLexicalTokenizer

tokenizer 的基类型。

BaseScoringFunction

可在排名期间修改文档分数的函数的基类型。

BaseSearchIndexerDataIdentity

数据标识的抽象基类型。

BaseSearchIndexerSkill

技能的基类型。

BaseSearchRequestOptions

用于筛选、排序、分面、分页和其他搜索查询行为的参数。

BaseSimilarityAlgorithm

相似性算法的基类型。 相似性算法用于计算将查询与文档挂钩的分数。 分数越高,文档就越与该特定查询相关。 这些分数用于对搜索结果进行排名。

BaseTokenFilter

标记筛选器的基类型。

BaseVectorQuery

矢量和混合搜索查询的查询参数。

BaseVectorSearchAlgorithmConfiguration

包含特定于索引编制和/或查询期间使用的算法的配置选项。

BaseVectorSearchCompression

包含特定于索引或查询期间使用的压缩方法的配置选项。

BaseVectorSearchVectorizer

包含查询期间要使用的向量化方法的特定详细信息。

BinaryQuantizationCompression

包含特定于索引和查询期间使用的二进制量化压缩方法的配置选项。

ChatCompletionResponseFormat

确定应如何序列化语言模型的响应。 默认为“文本”。

ChatCompletionResponseFormatJsonSchemaProperties

JSON 模式响应格式的属性。

ChatCompletionSchema

定义模型将用于构建其输出的自定义架构的对象。

ChatCompletionSkill

一项通过 Azure AI Foundry 的聊天完成终端调用语言模型的技能。

CjkBigramTokenFilter

形成从标准标记器生成的 CJK 术语的 bigram。 此令牌筛选器是使用 Apache Lucene 实现的。

ClassicSimilarity

使用 TF-IDF 的 Lucene TFIDFSimilarity 实现的旧相似性算法。 这种 TF-IDF 变体引入了静态文档长度规范化,以及惩罚仅部分匹配搜索查询的文档的协调因素。

ClassicTokenizer

适用于处理大多数欧洲语言文档的基于语法的 tokenizer。 此 tokenizer 是使用 Apache Lucene 实现的。

CognitiveServicesAccountKey

附加到技能集的 Azure AI 服务资源的多区域帐户密钥。

CommonGramTokenFilter

为索引时经常出现的字词构造 bigrams。 单个字词仍编制索引,并覆盖 bigrams。 此令牌筛选器是使用 Apache Lucene 实现的。

CommonModelParameters

聊天完成的通用语言模型参数。 如果省略,则使用默认值。

CompletedSynchronizationState

表示上次同步的完成状态。

ComplexField

表示索引定义中的字段,该定义描述字段的名称、数据类型和搜索行为。

ConditionalSkill

一种技能,使需要布尔操作的方案能够确定要分配给输出的数据。

ContentUnderstandingSkill

一项利用 Azure AI 内容理解技术处理和提取结构化洞察的技能,使内容丰富且可搜索,从而增强文档索引和检索能力。

ContentUnderstandingSkillChunkingProperties

控制内容分块的基数。

CorsOptions

定义用于控制索引的跨域资源共享(CORS)的选项。

CreateKnowledgeBaseOptions
CreateKnowledgeSourceOptions
CreateOrUpdateAliasOptions

用于创建或更新别名操作的选项。

CreateOrUpdateIndexOptions

用于创建/更新索引操作的选项。

CreateOrUpdateKnowledgeBaseOptions
CreateOrUpdateKnowledgeSourceOptions
CreateOrUpdateSkillsetOptions

用于创建/更新技能集操作的选项。

CreateOrUpdateSynonymMapOptions

用于创建/更新同义词映射操作的选项。

CreateorUpdateDataSourceConnectionOptions

用于创建/更新数据源操作的选项。

CreateorUpdateIndexerOptions

用于创建/更新索引器操作的选项。

CustomAnalyzer

允许你控制将文本转换为可索引/可搜索令牌的过程。 它是用户定义的配置,由单个预定义的 tokenizer 和一个或多个筛选器组成。 tokenizer 负责将文本分解为令牌,以及用于修改 tokenizer 发出的令牌的筛选器。

CustomEntity

一个对象,其中包含有关找到的匹配项和相关元数据的信息。

CustomEntityAlias

可用于指定根实体名称的替代拼写或同义词的复杂对象。

CustomEntityLookupSkill

技能从自定义的用户定义字词和短语列表中查找文本。

CustomLexicalNormalizer

允许为可筛选、可排序和可分面字段配置规范化,默认情况下,这些字段使用严格的匹配操作。 这是一个用户定义的配置,由至少一个或多个筛选器组成,用于修改存储的令牌。

DefaultCognitiveServicesAccount

一个空对象,表示技能集的默认 Azure AI 服务资源。

DeleteAliasOptions

用于删除别名操作的选项。

DeleteDataSourceConnectionOptions

用于删除数据源操作的选项。

DeleteIndexOptions

用于删除索引操作的选项。

DeleteIndexerOptions

用于删除索引器操作的选项。

DeleteKnowledgeBaseOptions
DeleteKnowledgeSourceOptions
DeleteSkillsetOptions

用于删除技能集操作的选项。

DeleteSynonymMapOptions

用于删除同义词映射操作的选项。

DictionaryDecompounderTokenFilter

分解许多德语语言中发现的复合词。 此令牌筛选器是使用 Apache Lucene 实现的。

DistanceScoringFunction

定义基于地理位置距离提升分数的函数。

DistanceScoringParameters

向距离评分函数提供参数值。

DocumentDebugInfo

包含可用于进一步浏览搜索结果的调试信息。

DocumentExtractionSkill

从扩充管道中的文件中提取内容的技能。

DocumentIntelligenceLayoutSkill

一种技能,通过 Azure AI 服务从扩充管道中的文件提取内容和布局信息(即 Markdown)。

DocumentIntelligenceLayoutSkillChunkingProperties

控制内容分块的基数。

EdgeNGramTokenFilter

从输入令牌的前面或后面开始,生成给定大小的 n 元语法。 此令牌筛选器是使用 Apache Lucene 实现的。

EdgeNGramTokenizer

将输入从边缘标记为给定大小的 n 元语法。 此 tokenizer 是使用 Apache Lucene 实现的。

ElisionTokenFilter

删除 elisions。 例如,“l'avion”(平面)将转换为“avion”(平面)。 此令牌筛选器是使用 Apache Lucene 实现的。

EntityLinkingSkill

使用文本分析 API 从文本中提取链接的实体。

EntityRecognitionSkill

文本分析实体识别。

EntityRecognitionSkillV3

使用文本分析 API 从文本中提取不同类型的实体。

ExhaustiveKnnParameters

包含特定于详尽 KNN 算法的参数。

ExtractiveQueryAnswer

从以自然语言表示的查询中返回的文档内容中提取答案候选项。

ExtractiveQueryCaption

从匹配的文档中提取标题,其中包含与搜索查询相关的段落。

FacetResult

分面查询结果的单个存储桶。 报告字段值在特定范围内或具有特定值或间隔的文档数。

FieldMapping

定义数据源中的字段与索引中目标字段之间的映射。

FieldMappingFunction

表示在编制索引之前从数据源转换值的函数。

FreshnessScoringFunction

定义一个函数,该函数根据日期时间字段的值提升分数。

FreshnessScoringParameters

为新鲜度评分函数提供参数值。

GenerativeQueryRewrites

生成替代查询词以增加搜索请求的召回率。

GetDocumentOptions

用于检索单个文档的选项。

GetKnowledgeBaseOptions
GetKnowledgeSourceOptions
GetKnowledgeSourceStatusOptions
HighWaterMarkChangeDetectionPolicy

定义数据更改检测策略,该策略根据高水印列的值捕获更改。

HnswParameters

包含特定于 hnsw 算法的参数。

ImageAnalysisSkill

分析图像文件的技能。 它基于图像内容提取一组丰富的视觉特征。

IndexDocumentsClient

索引文档客户端

IndexDocumentsOptions

修改索引批处理操作的选项。

IndexDocumentsResult

包含索引请求中所有文档的操作状态的响应。

IndexedOneLakeKnowledgeSource

OneLake 知识源的配置。

IndexedOneLakeKnowledgeSourceParameters

OneLake 知识源的参数。

IndexedOneLakeKnowledgeSourceParams

指定索引 OneLake 知识源的运行时参数

IndexerExecutionResult

表示单个索引器执行的结果。

IndexingParameters

表示索引器执行的参数。

IndexingParametersConfiguration

特定于索引器的配置属性的字典。 每个名称都是特定属性的名称。 每个值都必须是基元类型。

IndexingResult

单个文档的索引操作的状态。

IndexingSchedule

表示索引器执行的计划。

InputFieldMappingEntry

技能的输入字段映射。

KeepTokenFilter

一个标记筛选器,它只保留包含指定字词列表中的文本的标记。 此令牌筛选器是使用 Apache Lucene 实现的。

KeyAuthAzureMachineLearningVectorizerParameters

指定使用身份验证密钥连接到 AML 向量程序的属性。

KeyPhraseExtractionSkill

使用文本分析进行关键短语提取的技能。

KeywordMarkerTokenFilter

将术语标记为关键字。 此令牌筛选器是使用 Apache Lucene 实现的。

KeywordTokenizer

以单个标记的形式发出整个输入。 此 tokenizer 是使用 Apache Lucene 实现的。

KnowledgeBase
KnowledgeBaseAgenticReasoningActivityRecord

表示代理推理活动记录。

KnowledgeBaseAzureBlobReference

表示 Azure Blob 存储文档引用。

KnowledgeBaseAzureOpenAIModel

指定用于执行查询规划的 Azure OpenAI 资源。

KnowledgeBaseErrorAdditionalInfo

资源管理错误附加信息。

KnowledgeBaseErrorDetail

错误详细信息。

KnowledgeBaseIndexedOneLakeReference

表示一个索引的OneLake文档引用。

KnowledgeBaseMessage

自然语言消息样式对象。

KnowledgeBaseMessageImageContent

图像消息类型。

KnowledgeBaseMessageImageContentImage

图片内容。

KnowledgeBaseMessageTextContent

短信类型。

KnowledgeBaseModelWebSummarizationActivityRecord

表示一个大型语言模型(LLM)网络摘要活动记录。

KnowledgeBaseRetrievalRequest

检索请求的输入协定。

KnowledgeBaseRetrievalResponse

检索响应的输出协定。

KnowledgeBaseSearchIndexReference

表示 Azure 搜索文档引用。

KnowledgeBaseWebReference

表示 Web 文档引用。

KnowledgeRetrievalClientOptions

用于配置认知搜索 API 请求的客户端选项。

KnowledgeRetrievalIntent

一个旨在执行而无需模型查询规划的查询。

KnowledgeRetrievalMinimalReasoningEffort

以最少的推理工作运行知识检索。

KnowledgeRetrievalSemanticIntent

语义查询意图。

KnowledgeSourceAzureOpenAIVectorizer

指定用于矢量化查询字符串的 Azure OpenAI 资源。

KnowledgeSourceIngestionParameters

合并知识源的所有常规引入设置。

KnowledgeSourceReference

引用知识来源。

KnowledgeSourceStatistics

有关知识源同步历史的统计信息。

KnowledgeSourceStatus

表示知识源的状态和同步历史记录。

KnowledgeSourceSynchronizationError

表示在知识源同步运行过程中遇到的文档级索引错误。

LanguageDetectionSkill

一种技能,用于检测输入文本的语言,并报告请求上提交的每个文档的单个语言代码。 语言代码与指示分析置信度分数配对。

LengthTokenFilter

删除太长或太短的字词。 此令牌筛选器是使用 Apache Lucene 实现的。

LimitTokenFilter

在编制索引时限制令牌数。 此令牌筛选器是使用 Apache Lucene 实现的。

ListKnowledgeBasesOptions
ListKnowledgeSourcesOptions
ListSearchResultsPageSettings

用于检索搜索结果下一页的参数。

LuceneStandardAnalyzer

标准 Apache Lucene 分析器;由标准 tokenizer、小写筛选器和停止筛选器组成。

LuceneStandardTokenizer

中断 Unicode 文本分段规则后面的文本。 此 tokenizer 是使用 Apache Lucene 实现的。

MagnitudeScoringFunction

定义一个函数,该函数根据数值字段的大小提升分数。

MagnitudeScoringParameters

向数量级评分函数提供参数值。

MappingCharFilter

一个字符筛选器,它应用使用映射选项定义的映射。 匹配是贪婪(给定点获胜时最长的模式匹配)。 允许替换为空字符串。 此字符筛选器是使用 Apache Lucene 实现的。

MergeSkill

用于将两个或多个字符串合并到单个统一字符串的技能,使用可选的用户定义的分隔符分隔每个组件部件。

MicrosoftLanguageStemmingTokenizer

使用特定于语言的规则划分文本,并将单词减少到其基形式。

MicrosoftLanguageTokenizer

使用特定于语言的规则划分文本。

NGramTokenFilter

生成给定大小的 n 元语法。 此令牌筛选器是使用 Apache Lucene 实现的。

NGramTokenizer

将输入标记为给定大小的 n 元语法。 此 tokenizer 是使用 Apache Lucene 实现的。

NativeBlobSoftDeleteDeletionDetectionPolicy

定义使用 Azure Blob 存储的本机软删除功能进行删除检测的数据删除检测策略。

NoAuthAzureMachineLearningVectorizerParameters

指定用于连接到无身份验证的 AML 向量程序的属性。

OcrSkill

从图像文件中提取文本的技能。

OutputFieldMappingEntry

技能的输出字段映射。

PIIDetectionSkill

使用文本分析 API,从输入文本中提取个人信息,并提供屏蔽信息的选项。

PageSettings

byPage 方法的选项

PagedAsyncIterableIterator

允许异步迭代到完成和逐页迭代的接口。

PathHierarchyTokenizer

类似路径层次结构的 Tokenizer。 此 tokenizer 是使用 Apache Lucene 实现的。

PatternAnalyzer

灵活将文本通过正则表达式模式分隔为字词。 此分析器是使用 Apache Lucene 实现的。

PatternCaptureTokenFilter

使用 Java 正则表达式发出多个令牌 - 一个标记用于一个或多个模式中的每个捕获组。 此令牌筛选器是使用 Apache Lucene 实现的。

PatternReplaceCharFilter

替换输入字符串中的字符的字符筛选器。 它使用正则表达式来标识要保留的字符序列和替换模式来标识要替换的字符。 例如,假设输入文本“aa bb aa bb”,模式“(aa)\s+(bb)”,并替换“$1#$2”,结果将为“aa#bb aa#bb”。 此字符筛选器是使用 Apache Lucene 实现的。

PatternReplaceTokenFilter

替换输入字符串中的字符的字符筛选器。 它使用正则表达式来标识要保留的字符序列和替换模式来标识要替换的字符。 例如,假设输入文本“aa bb aa bb”,模式“(aa)\s+(bb)”,并替换“$1#$2”,结果将为“aa#bb aa#bb”。 此令牌筛选器是使用 Apache Lucene 实现的。

PatternTokenizer

使用正则表达式模式匹配构造不同令牌的 Tokenizer。 此 tokenizer 是使用 Apache Lucene 实现的。

PhoneticTokenFilter

为拼音匹配创建令牌。 此令牌筛选器是使用 Apache Lucene 实现的。

QueryAnswerResult

答案是从与查询匹配的最相关文档的内容中提取的文本段落。 答案是从排名靠前的搜索结果中提取的。 对考生进行评分,并且选择了排名靠前的答案。

QueryCaptionResult

标题是文档相对于搜索查询最具代表性的段落。 它们通常用作文档摘要。 仅返回 semantic类型的查询的标题。

QueryResultDocumentSemanticField

发送到语义扩充过程的字段的说明以及它们的使用方式

QueryResultDocumentSubscores

本文档的搜索查询的文本和矢量查询组件之间的子分数细分。 每个向量查询都以相同的顺序显示为单独的对象。

RescoringOptions

包含用于重新记录的选项。

ResourceCounter

表示资源的使用情况和配额。

RetrieveOptions
ScalarQuantizationCompression

包含特定于索引和查询期间使用的标量量化压缩方法的配置选项。

ScalarQuantizationParameters

包含特定于标量量化的参数。

ScoringProfile

定义影响搜索查询中评分的搜索索引的参数。

SearchAlias

表示索引别名,该别名描述从别名到索引的映射。 别名可用于代替受支持操作的索引名称。

SearchClientOptions

用于配置 AI 搜索 API 请求的客户端选项。

SearchDocumentsPageResult

包含索引中的搜索结果的响应。

SearchDocumentsResult

包含索引搜索结果的响应。

SearchDocumentsResultBase

包含索引搜索结果的响应。

SearchIndex

表示搜索索引定义,该定义描述索引的字段和搜索行为。

SearchIndexClientOptions

用于配置 AI 搜索 API 请求的客户端选项。

SearchIndexFieldReference

搜索索引字段参考。

SearchIndexKnowledgeSource

面向搜索索引的知识源。

SearchIndexKnowledgeSourceParameters

搜索索引知识源的参数。

SearchIndexKnowledgeSourceParams

指定搜索索引知识源的运行时参数

SearchIndexStatistics

给定索引的统计信息。 统计信息会定期收集,不保证始终 up-to日期。

SearchIndexer

表示索引器。

SearchIndexerClientOptions

用于配置 AI 搜索 API 请求的客户端选项。

SearchIndexerDataContainer

表示要编制索引的实体(如 Azure SQL 表或 CosmosDB 集合)的相关信息。

SearchIndexerDataNoneIdentity

清除数据源的标识属性。

SearchIndexerDataSourceConnection

表示可用于配置索引器的数据源定义。

SearchIndexerDataUserAssignedIdentity

指定要使用的数据源的标识。

SearchIndexerError

表示项级或文档级索引错误。

SearchIndexerIndexProjection

对辅助搜索索引的其他投影的定义。

SearchIndexerIndexProjectionParameters

索引投影特定配置属性的字典。 每个名称都是特定属性的名称。 每个值都必须是基元类型。

SearchIndexerIndexProjectionSelector

指定搜索索引中要存储的数据的说明。

SearchIndexerKnowledgeStore

定义扩充数据的 Azure Blob、表或文件的其他投影。

SearchIndexerKnowledgeStoreBlobProjectionSelector

抽象类,用于在具体选择器之间共享属性。

SearchIndexerKnowledgeStoreFileProjectionSelector

要存储在 Azure 文件中的数据的投影定义。

SearchIndexerKnowledgeStoreObjectProjectionSelector

要存储在 Azure Blob 中的数据的投影定义。

SearchIndexerKnowledgeStoreParameters

特定于知识存储的配置属性的字典。 每个名称都是特定属性的名称。 每个值都必须是基元类型。

SearchIndexerKnowledgeStoreProjection

各种投影选择器的容器对象。

SearchIndexerKnowledgeStoreProjectionSelector

抽象类,用于在具体选择器之间共享属性。

SearchIndexerKnowledgeStoreTableProjectionSelector

描述要存储在 Azure 表中的数据。

SearchIndexerLimits

表示索引器可以施加的限制。

SearchIndexerSkillset

技能列表。

SearchIndexerStatus

表示索引器的当前状态和执行历史记录。

SearchIndexerWarning

表示项级警告。

SearchIndexingBufferedSenderOptions

SearchIndexingBufferedSender 的选项。

SearchResourceEncryptionKey

Azure 密钥保管库 中的客户管理的加密密钥。 创建和管理的密钥可用于加密或解密 Azure AI 搜索中的静态数据,例如索引和同义词映射。

SearchServiceStatistics

来自获取服务统计信息请求的响应。 如果成功,则包含服务级别计数器和限制。

SemanticConfiguration

定义要在语义功能的上下文中使用的特定配置。

SemanticDebugInfo

语义搜索查询的调试选项。

SemanticField

用作语义配置的一部分的字段。

SemanticPrioritizedFields

描述要用于语义排名、标题、突出显示和答案的标题、内容和关键字字段。

SemanticSearch

定义影响语义功能的搜索索引的参数。

SemanticSearchOptions

定义语义搜索查询的选项

SentimentSkill

文本分析正负情绪分析,评分为零到 1 范围内的浮点值。

SentimentSkillV3

使用文本分析 API 评估非结构化文本,并为每个记录提供情绪标签(如“负”、“中性”和“正”),具体取决于服务在句子和文档级别找到的最高置信度分数。

ServiceCounters

表示服务级别资源计数器和配额。

ServiceLimits

表示各种服务级别限制。

ShaperSkill

用于重塑输出的技能。 它创建复杂类型以支持复合字段(也称为多部分字段)。

ShingleTokenFilter

将令牌的组合创建为单个令牌。 此令牌筛选器是使用 Apache Lucene 实现的。

SimpleField

表示索引定义中的字段,该定义描述字段的名称、数据类型和搜索行为。

SingleVectorFieldResult

单个向量字段结果。 两者都有

SnowballTokenFilter

使用 Snowball 生成的词干分析器词干的筛选器。 此令牌筛选器是使用 Apache Lucene 实现的。

SoftDeleteColumnDeletionDetectionPolicy

定义实现软删除策略的数据删除检测策略。 它确定是否应根据指定的“软删除”列的值删除项。

SplitSkill

将字符串拆分为文本区块的技能。

SqlIntegratedChangeTrackingPolicy

定义使用 Azure SQL 数据库的集成更改跟踪功能捕获更改的数据更改检测策略。

StemmerOverrideTokenFilter

提供使用基于自定义字典的词干分析替代其他词干筛选器的功能。 任何字典词干术语都将标记为关键字,以便它们不会在链中以词干分析器进行词干。 必须放置在任何词干筛选器之前。 此令牌筛选器是使用 Apache Lucene 实现的。 请参见http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/StemmerOverrideFilter.html

StemmerTokenFilter

特定于语言的词干筛选。 此令牌筛选器是使用 Apache Lucene 实现的。 请参见https://learn.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#TokenFilters

StopAnalyzer

以非字母分隔文本;应用小写和非索引字标记筛选器。 此分析器是使用 Apache Lucene 实现的。

StopwordsTokenFilter

从令牌流中删除停止字词。 此令牌筛选器是使用 Apache Lucene 实现的。 请参见http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopFilter.html

SuggestDocumentsResult

包含来自索引的建议查询结果的响应。

SuggestRequest

用于筛选、排序、模糊匹配和其他建议查询行为的参数。

Suggester

定义建议 API 应如何应用于索引中的一组字段。

SynchronizationState

表示跨多个索引器运行的正在进行的同步的当前状态。

SynonymMap

表示同义词映射定义。

SynonymTokenFilter

匹配令牌流中的单个或多单词同义词。 此令牌筛选器是使用 Apache Lucene 实现的。

TagScoringFunction

定义一个函数,该函数使用与给定标记列表匹配的字符串值提升文档的分数。

TagScoringParameters

向标记评分函数提供参数值。

TextResult

查询文本部分的 BM25 或经典分数。

TextTranslationSkill

将文本从一种语言翻译成另一种语言的技能。

TextWeights

定义匹配项应在搜索查询中提升评分的索引字段的权重。

TokenAuthAzureMachineLearningVectorizerParameters

指定使用托管标识连接到 AML 向量器的属性。

TruncateTokenFilter

将术语截断为特定长度。 此令牌筛选器是使用 Apache Lucene 实现的。

UaxUrlEmailTokenizer

将 URL 和电子邮件作为一个令牌进行标记化。 此 tokenizer 是使用 Apache Lucene 实现的。

UniqueTokenFilter

筛选出与上一个标记相同的文本的标记。 此令牌筛选器是使用 Apache Lucene 实现的。

VectorSearch

包含与矢量搜索相关的配置选项。

VectorSearchOptions

定义矢量搜索查询的选项

VectorSearchProfile

定义要与矢量搜索一起使用的配置的组合。

VectorizableImageBinaryQuery

提供需要矢量化的图像的 base 64 编码二进制文件时,用于矢量搜索的查询参数。

VectorizableImageUrlQuery

提供表示需要矢量化的图像值的 URL 时用于矢量搜索的查询参数。

VectorizableTextQuery

提供需要矢量化的文本值时用于矢量搜索的查询参数。

VectorizedQuery

提供原始向量值时用于矢量搜索的查询参数。

VectorsDebugInfo

“包含针对矢量搜索和混合搜索的调试信息。”

WebApiParameters

指定用于连接到用户定义的向量器的属性。

WebApiSkill

一种可以调用 Web API 终结点的技能,允许你通过调用自定义代码来扩展技能集。

WebApiVectorizer

指定用于生成查询字符串嵌入的矢量的用户定义的向量器。 使用技能集的自定义 Web API 接口实现外部向量器的集成。

WebKnowledgeSource

面向 Web 结果的知识源。

WebKnowledgeSourceDomain

Web 知识源域的配置。

WebKnowledgeSourceDomains

Web 知识源的域允许/阻止配置。

WebKnowledgeSourceParameters

Web 知识源的参数。

WebKnowledgeSourceParams

指定 Web 知识源的运行时参数

WordDelimiterTokenFilter

将单词拆分为子词,对子词组执行可选转换。 此令牌筛选器是使用 Apache Lucene 实现的。

类型别名

AIFoundryModelCatalogName

来自Azure AI Foundry目录的嵌入模型名称。
KnownAIFoundryModelCatalogName 可以与 AIFoundryModelCatalogName 互换使用,此枚举包含服务支持的已知值。

服务支持的已知值

OpenAI-CLIP-Image-Text-Embeddings-vit-base-patch32: OpenAI-CLIP-Image-Text-Embeddings-vit-base-patch32
OpenAI-CLIP-图像-文本嵌入-ViT-大型补丁14-336:OpenAI-CLIP-图像-文本嵌入-ViT-大型补丁14-336
Facebook-DinoV2-图片嵌入-ViT-Base:Facebook-DinoV2-图片嵌入-ViT-Base
Facebook-DinoV2-图片嵌入-ViT-巨人:Facebook-DinoV2-图片嵌入-ViT-Giant
Cohere-embed-v3-english: Cohere-embed-v3-english
Cohere-embed-v3-multilingual: Cohere-embed-v3-multilingual
Cohere-embed-v4:用于从文本和图像生成嵌入的 Cohere embedd v4 模型。

AliasIterator

用于列出搜索服务中存在的别名的迭代器。 这将在迭代期间根据需要发出请求。 使用 .byPage() 对每次迭代的服务器发出一个请求。

AnalyzeTextOptions

用于分析文本操作的选项。

AutocompleteMode

指定自动完成的模式。 默认值为“oneTerm”。 使用“twoTerms”获取带状疱疹,使用“oneTermWithContext”使用当前上下文生成自动完成术语。

AutocompleteOptions

用于检索部分 searchText 的完成文本的选项。

AzureMachineLearningVectorizerParameters

指定连接到 AML 向量器的属性。

AzureOpenAIModelName

将调用的 Azure Open AI 模型名称。
KnownAzureOpenAIModelName 可与 AzureOpenAIModelName 互换使用,此枚举包含服务支持的已知值。

服务支持的已知值

text-embedding-ada-002:TextEmbeddingAda002 模型。
text-embedding-3-large:TextEmbedding3Large 模型。
text-embedding-3-small:TextEmbedding3Small 模型。
GPT-5-mini:GPT5Mini型号。
GPT-5-nano:Gpt5Nano模型。
GPT-5.4-mini:GPT54Mini型号。
GPT-5.4-nano:Gpt54Nano型号。

BaseKnowledgeRetrievalIntent

知识检索IntentUnion 别名

BlobIndexerDataToExtract
BlobIndexerImageAction
BlobIndexerPDFTextRotationAlgorithm
BlobIndexerParsingMode
CharFilter

包含 CharFilter 的可能情况。

CharFilterName

定义搜索引擎支持的所有字符过滤器的名称。
<xref:KnownCharFilterName> 可与 CharFilterName 互换使用,此枚举包含服务支持的已知值。

服务支持的已知值

html_strip:尝试去除 HTML 构造的字符筛选器。 请参见https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/charfilter/HTMLStripCharFilter.html

ChatCompletionExtraParametersBehavior

规定Azure AI Foundry应如何处理“extraParameters”。 默认为“错误”。
KnownChatCompletionExtraParametersBehavior 可以与 ChatCompletionExtraParametersBehavior 互换使用,此枚举包含服务支持的已知值。

服务支持的已知值

passThrough:将任何额外参数直接传递给模型。
drop:删除所有额外的参数。
error:如果存在任何额外参数,则引发错误。

ChatCompletionResponseFormatType

指定 LLM 应如何格式化响应。
KnownChatCompletionResponseFormatType 可以与 ChatCompletionResponseFormatType 互换使用,此枚举包含服务支持的已知值。

服务支持的已知值

文本:纯文本回复格式。
jsonObject:任意JSON对象响应格式。
jsonSchema:符合 JSON 模式的响应格式。

CjkBigramTokenFilterScripts

CjkBigramTokenFilter 可以忽略的脚本。

CognitiveServicesAccount

包含 CognitiveServicesAccount 的可能情况。

ComplexDataType

定义 ComplexDataType 的值。 可能的值包括:“Edm.ComplexType”、“Collection(Edm.ComplexType)”

ContentUnderstandingSkillChunkingUnit

控制区块单元的基数。 默认是“字符”
KnownContentUnderstandingSkillChunkingUnit 可以与 ContentUnderstandingSkillChunkingUnit 互换使用,该枚举包含服务支持的已知值。

服务支持的已知值

characters:按字符指定块。

ContentUnderstandingSkillExtractionOptions

控制技能从文档中提取的内容的基数。
KnownContentUnderstandingSkillExtractionOptions 可以与 ContentUnderstandingSkillExtractionOptions 互换使用,该枚举包含服务支持的已知值。

服务支持的已知值

图像:指定应从文档中提取图像内容。
locationMetadata:指定应从文档中提取位置元数据。

ContinuablePage

描述结果页的接口。

CountDocumentsOptions

用于对索引执行计数操作的选项。

CreateAliasOptions

用于创建别名操作的选项。

CreateDataSourceConnectionOptions

用于创建数据源操作的选项。

CreateIndexOptions

用于创建索引操作的选项。

CreateIndexerOptions

用于创建索引器操作的选项。

CreateSkillsetOptions

用于创建技能集操作的选项。

CreateSynonymMapOptions

用于创建同义词映射操作的选项。

CustomEntityLookupSkillLanguage
DataChangeDetectionPolicy

包含 DataChangeDetectionPolicy 的可能情况。

DataDeletionDetectionPolicy

包含 DataDeletionDetectionPolicy 的可能案例。

DeleteDocumentsOptions

删除文档操作的选项。

DocumentIntelligenceLayoutSkillChunkingUnit

控制区块单元的基数。 默认是“字符”
KnownDocumentIntelligenceLayoutSkillChunkingUnit 可以与 DocumentIntelligenceLayoutSkillChunkingUnit 互换使用,此枚举包含服务支持的已知值。

服务支持的已知值

characters:按字符指定块。

DocumentIntelligenceLayoutSkillExtractionOptions

控制技能从文档中提取的内容的基数。
KnownDocumentIntelligenceLayoutSkillExtractionOptions 可以与 DocumentIntelligenceLayoutSkillExtractionOptions 互换使用,此枚举包含服务支持的已知值。

服务支持的已知值

图像:指定应从文档中提取图像内容。
locationMetadata:指定应从文档中提取位置元数据。

DocumentIntelligenceLayoutSkillMarkdownHeaderDepth

markdown 输出中标头的深度。 默认值为 h6。
KnownDocumentIntelligenceLayoutSkillMarkdownHeaderDepth 可以与 DocumentIntelligenceLayoutSkillMarkdownHeaderDepth 互换使用,此枚举包含服务支持的已知值。

服务支持的已知值

h1:标头级别 1。
h2:标头级别 2。
h3:标头级别 3。
h4:标头级别 4。
h5:标头级别 5。
h6:标头级别 6。

DocumentIntelligenceLayoutSkillOutputFormat

控制输出格式的基数。 默认值为“markdown”。
KnownDocumentIntelligenceLayoutSkillOutputFormat 可以与 DocumentIntelligenceLayoutSkillOutputFormat 互换使用,此枚举包含服务支持的已知值。

服务支持的已知值

text:将输出的格式指定为文本。
markdown:将输出的格式指定为 markdown。

DocumentIntelligenceLayoutSkillOutputMode

控制技能生成的输出的基数。 默认值为“oneToMany”。
KnownDocumentIntelligenceLayoutSkillOutputMode 可以与 DocumentIntelligenceLayoutSkillOutputMode 互换使用,此枚举包含服务支持的已知值。

服务支持的已知值

oneToMany:指定输出应分析为“oneToMany”。

EdgeNGramTokenFilterSide

指定应从输入的哪一侧生成 n-gram。

EntityCategory

指示要返回的实体类别的字符串。
KnownEntityCategory 可以与 EntityCategory 互换使用,该枚举包含服务支持的已知值。

服务支持的已知值

位置:描述物理位置的实体。
组织:描述组织的实体。
:描述一个人的实体。
数量:描述一个数量的实体。
datetime:描述日期和时间的实体。
url:描述URL的实体。
电子邮件:描述电子邮件地址的实体。

EntityRecognitionSkillLanguage

EntityRecognitionSkill支持的输入文本的语言代码。
KnownEntityRecognitionSkillLanguage 可以与 EntityRecognitionSkillLanguage 互换使用,该枚举包含服务支持的已知值。

服务支持的已知值

ar:阿拉伯语
CS:捷克语
zh-Hans:Chinese-Simplified
zh-Hant:Chinese-Traditional
da:丹麦语
nl:荷兰语
英语
fi:芬兰语
语:法语
德语:德语
el:希腊语
hu:匈牙利人
:意大利语
ja:日语
ko:韩国语
不:挪威语(Bokmaal)
波兰
pt-PT:葡萄牙语(葡萄牙)
pt-BR:葡萄牙语(巴西)
ru:俄语
es:西班牙语
sv:瑞典语
tr:土耳其语

ExcludedODataTypes
ExhaustiveKnnAlgorithmConfiguration

包含特定于查询期间使用的详尽 KNN 算法的配置选项,该算法将在整个矢量索引中执行暴力搜索。

ExtractDocumentKey
GetAliasOptions

用于获取别名操作的选项。

GetDataSourceConnectionOptions

用于获取数据源操作的选项。

GetIndexOptions

用于获取索引操作的选项。

GetIndexStatisticsOptions

用于获取索引统计信息操作的选项。

GetIndexerOptions

用于获取索引器操作的选项。

GetIndexerStatusOptions

获取索引器状态操作的选项。

GetServiceStatisticsOptions

用于获取服务统计信息操作的选项。

GetSkillSetOptions

用于获取技能集操作的选项。

GetSynonymMapsOptions

获取同义词映射操作的选项。

HnswAlgorithmConfiguration

包含特定于在编制索引时使用的 hnsw 近似近邻算法的配置选项。

ImageAnalysisSkillLanguage
ImageDetail
IndexActionType

要对索引批处理中的文档执行的作。

IndexDocumentsAction

表示对文档进行操作的索引操作。

IndexIterator

用于列出搜索服务中存在的索引的迭代器。 将在迭代期间根据需要发出请求。 使用 .byPage() 对每次迭代的服务器发出一个请求。

IndexNameIterator

用于列出搜索服务中存在的索引的迭代器。 将在迭代期间根据需要发出请求。 使用 .byPage() 对每次迭代的服务器发出一个请求。

IndexProjectionMode

定义索引投影相对于索引器其余部分的行为。
KnownIndexProjectionMode 可与 IndexProjectionMode 互换使用,此枚举包含服务支持的已知值。

服务支持的已知值

skipIndexingParentDocuments:源文档将从写入索引器的目标索引中跳过。
includeIndexingParentDocuments:源文档将写入索引器的目标索引中。 这是默认模式。

IndexerExecutionEnvironment
IndexerExecutionStatus

表示单个索引器执行的状态。

IndexerResyncOption

具有各种类型的权限数据以建立索引的选项。
KnownIndexerResyncOption 可以与 IndexerResyncOption 互换使用,此枚举包含服务支持的已知值。

服务支持的已知值

权限:索引器,用于将预选权限数据从数据源重新引入索引。

IndexerStatus

表示总体索引器状态。

KeyPhraseExtractionSkillLanguage
KnowledgeBaseActivityRecord

KnowledgeBaseActivityRecordUnion 的别名

KnowledgeBaseActivityRecordType

活动记录的类型。
<xref:KnownKnowledgeBaseActivityRecordType> 可以与 KnowledgeBaseActivityRecordType 互换使用,该枚举包含服务支持的已知值。

服务支持的已知值

searchIndex:搜索索引检索活动。
azureBlob: Azure Blob retrieval activity.
indexedOneLake:索引OneLake检索活动。
网络:网络检索活动。
modelWebSummarization:大型语言模型Web摘要活动。
代理推理:代理推理活动。

KnowledgeBaseIterator

一个用于列出搜索服务中知识库的迭代器。 将在迭代期间根据需要发出请求。 使用 .byPage() 对每次迭代的服务器发出一个请求。

KnowledgeBaseMessageContent

KnowledgeBaseMessageContentUnion 的别名

KnowledgeBaseMessageContentType

消息内容的类型。
<xref:KnownKnowledgeBaseMessageContentType> 可以与 KnowledgeBaseMessageContentType 互换使用,该枚举包含服务支持的已知值。

服务支持的已知值

文本:短信内容类型。
图片:图片信息内容类型。

KnowledgeBaseModel
KnowledgeBaseModelKind

用于查询规划的 AI 模型。
KnownKnowledgeBaseModelKind 可以与 KnowledgeBaseModelKind 互换使用,该枚举包含服务支持的已知值。

服务支持的已知值

azureOpenAI:使用Azure Open AI模型进行查询规划。

KnowledgeBaseReference

KnowledgeBaseReferenceUnion 的别名

KnowledgeBaseReferenceType

引用的类型。
<xref:KnownKnowledgeBaseReferenceType> 可以与 KnowledgeBaseReferenceType 互换使用,该枚举包含服务支持的已知值。

服务支持的已知值

searchIndex:搜索索引文档参考。
azureBlob: Azure Blob document reference.
indexedOneLake:索引OneLake文档参考。
网页:网页文档参考。

KnowledgeRetrievalIntentType

要使用的知识库配置类型。
<xref:KnownKnowledgeRetrievalIntentType> 可以与 KnowledgeRetrievalIntentType 互换使用,该枚举包含服务支持的已知值。

服务支持的已知值

语义:自然语言语义查询意图。

KnowledgeRetrievalReasoningEffortKind

检索期间要使用的工作量。
<xref:KnownKnowledgeRetrievalReasoningEffortKind> 可以与 KnowledgeRetrievalReasoningEffortKind 互换使用,该枚举包含服务支持的已知值。

服务支持的已知值

最小:不执行任何源选择、查询规划或迭代搜索。

KnowledgeRetrievalReasoningEffortUnion

知识检索ReasoningEffortUnion的别名

KnowledgeSource
KnowledgeSourceContentExtractionMode

可选的内容提取模式。 默认值为“最小值”。
<xref:KnownKnowledgeSourceContentExtractionMode> 可以与 KnowledgeSourceContentExtractionMode 互换使用,该枚举包含服务支持的已知值。

服务支持的已知值

最小化:仅提取关键元数据,推迟大部分内容处理。
标准:执行完整的默认内容提取流程。

KnowledgeSourceIterator

一个用于列出搜索服务中存在的知识源的迭代器。 将在迭代期间根据需要发出请求。 使用 .byPage() 对每次迭代的服务器发出一个请求。

KnowledgeSourceKind

知识来源的那种。
KnownKnowledgeSourceKind 可以与 KnowledgeSourceKind 互换使用,此枚举包含服务支持的已知值。

服务支持的已知值

searchIndex:从搜索索引中读取数据的知识源。
azureBlob:用于从 Azure Blob 存储读取数据并将其引入搜索索引的知识源。
indexedOneLake:读取索引 OneLake 数据的知识源。
网络:一种从网络读取数据的知识来源。

KnowledgeSourceParams

knowledgeSourceParamsUnion 的别名

KnowledgeSourceSynchronizationStatus

知识源的当前同步状态。
<xref:KnownKnowledgeSourceSynchronizationStatus> 可以与 KnowledgeSourceSynchronizationState 互换使用,该枚举包含服务支持的已知值。

服务支持的已知值

创建:知识源正在被配置。
主动:知识源处于激活状态,同步运行正在进行。
删除:知识源正在被删除,同步暂停。

KnowledgeSourceVectorizer
LexicalAnalyzer

包含分析器可能的情况。

LexicalAnalyzerName

定义搜索引擎支持的所有文本分析器的名称。
KnownLexicalAnalyzerName 可与 LexicalAnalyzerName 互换使用,此枚举包含服务支持的已知值。

服务支持的已知值

ar.microsoft:Microsoft阿拉伯语分析器。
ar.lucene:用于阿拉伯语的 Lucene 分析器。
hy.lucene:亚美尼亚语的 Lucene 分析器。
bn.microsoft:适用于孟加拉语的Microsoft分析器。
eu.lucene: Basque 的 Lucene 分析器。
bg.microsoft:Microsoft保加利亚分析器。
bg.lucene:保加利亚的 Lucene 分析器。
ca.microsoft:适用于加泰罗尼亚语的Microsoft分析器。
ca.lucene:加泰罗尼亚的 Lucene 分析器。
zh-Hans.microsoft:Microsoft中文分析器(简体中文)。
zh-Hans.lucene:Lucene 分析器(简体中文)。
zh-Hant.microsoft:中国(传统)Microsoft分析器。
zh-Hant.lucene:中国(传统)的 Lucene 分析器。
hr.microsoft:适用于克罗地亚的Microsoft分析器。
cs.microsoft:Microsoft适用于捷克的分析器。
cs.lucene:适用于捷克的 Lucene 分析器。
da.microsoft:适用于丹麦语的Microsoft分析器。
da.lucene:丹麦语的 Lucene 分析器。
nl.microsoft:Microsoft用于荷兰的分析器。
nl.lucene:用于荷兰的 Lucene 分析器。
en.microsoft:Microsoft英语分析器。
en.lucene:用于英语的 Lucene 分析器。
et.microsoft:爱沙尼亚Microsoft分析器。
fi.microsoft:Microsoft芬兰分析器。
fi.lucene: 芬兰的 Lucene 分析器。
fr.microsoft:Microsoft法语分析器。
fr.lucene: Lucene 分析器法语。
gl.lucene: Lucene 分析器为加利西亚。
de.microsoft:适用于德语的Microsoft分析器。
de.lucene:用于德语的 Lucene 分析器。
el.microsoft:适用于希腊Microsoft分析器。
el.lucene:用于希腊的 Lucene 分析器。
gu.microsoft:Microsoft适用于古吉拉特的分析器。
he.microsoft:Microsoft希伯来语分析器。
hi.microsoft:Microsoft印地语分析器。
hi.lucene:用于印地语的 Lucene 分析器。
胡.microsoft:匈牙利Microsoft分析器。
胡.lucene:匈牙利的 Lucene 分析器。
is.microsoft:适用于冰岛的Microsoft分析器。
id.microsoft:印度尼西亚Microsoft分析器(Bahasa)。
id.lucene:适用于印度尼西亚的 Lucene 分析器。
ga.lucene:适用于爱尔兰的 Lucene 分析器。
it.microsoft:适用于意大利语的Microsoft分析器。
it.lucene: Lucene 分析器,用于意大利语。
ja.microsoft:适用于日语的Microsoft分析器。
ja.lucene:适用于日语的 Lucene 分析器。
kn.microsoft:适用于 Kannada 的 Microsoft 分析器。
ko.microsoft:适用于朝鲜语的Microsoft分析器。
ko.lucene:用于韩国的 Lucene 分析器。
lv.microsoft:拉脱维亚Microsoft分析器。
lv.lucene:拉脱维亚的 Lucene 分析器。
lt.microsoft:立陶宛Microsoft分析器。
ml.microsoft:Microsoft分析器马拉雅拉姆语。
ms.microsoft:Microsoft马来语(拉丁语)分析器。
mr.microsoft:Microsoft用于 Marathi 的分析器。
nb。microsoft: 挪威语(博克米尔语)Microsoft分析器。
no.lucene:适用于挪威的 Lucene 分析器。
fa.lucene: 波斯语的 Lucene 分析器。
pl.microsoft:Microsoft波兰分析器。
pl.lucene: Lucene 分析器波兰。
pt-BR.microsoft:适用于葡萄牙语(巴西)的Microsoft分析器。
pt-BR.lucene: 葡萄牙语 (巴西) 的 Lucene 分析器。
pt-PT.microsoft:葡萄牙Microsoft分析器。
pt-PT.lucene: 葡萄牙的 Lucene 分析器。
pa.microsoft:Microsoft旁遮普分析器。
ro.microsoft:适用于罗马尼亚语的Microsoft分析器。
ro.lucene: Lucene 分析器罗马尼亚语。
ru.microsoft:适用于俄语的Microsoft分析器。
ru.lucene:用于俄语的 Lucene 分析器。
sr-cyrillic.microsoft:塞尔维亚语(西里尔文)Microsoft分析器。
sr-latin.microsoft:适用于塞尔维亚语(拉丁语)的Microsoft分析器。
sk.microsoft:Microsoft斯洛伐克分析器。
sl.microsoft:Microsoft斯洛文尼亚分析器。
es.microsoft:Microsoft西班牙语分析器。
es.lucene:用于西班牙语的 Lucene 分析器。
sv.microsoft:Microsoft用于瑞典的分析器。
sv.lucene:用于瑞典的 Lucene 分析器。
ta.microsoft:泰米尔语Microsoft分析器。
te.microsoft:Microsoft Telugu 分析器。
th.microsoft:Microsoft泰语分析器。
th.lucene: Lucene 分析器,用于泰国。
tr.microsoft:适用于土耳其的Microsoft分析器。
tr.lucene:用于土耳其的 Lucene 分析器。
uk.microsoft:Microsoft乌克兰分析器。
your.microsoft:适用于 Urdu 的 Microsoft 分析器。
vi.microsoft:适用于越南语的Microsoft分析器。
standard.lucene:标准 Lucene 分析器。
standardasciifolding.lucene:标准 ASCII 折叠 Lucene 分析器。 请参见https://learn.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#Analyzers
关键字:将字段的全部内容视为单个标记。 这对于邮政编码、ID 和某些产品名称等数据非常有用。 请参见http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordAnalyzer.html
模式:灵活将文本通过正则表达式模式分隔为字词。 请参见http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/PatternAnalyzer.html
简单:将文本除以非字母并将它们转换为小写。 请参见http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/SimpleAnalyzer.html
停止:以非字母分隔文本;应用小写和非索引字标记筛选器。 请参见http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopAnalyzer.html
空格:使用空格标记器的分析器。 请参见http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceAnalyzer.html

LexicalNormalizer

包含 LexicalNormalizer 的可能事例。

LexicalNormalizerName

定义搜索引擎支持的所有文本规范化器的名称。
KnownLexicalNormalizerName 可与 LexicalNormalizerName 互换使用,此枚举包含服务支持的已知值。

服务支持的已知值

asciifolding:将前 127 个 ASCII 字符(“基本拉丁语”Unicode 块)中的字母、数字和符号 Unicode 字符转换为其 ASCII 等效项(如果存在此类等效项)。 请参见http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ASCIIFoldingFilter.html
elision: 删除 elisions。 例如,“l'avion”(平面)将转换为“avion”(平面)。 请参见http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/util/ElisionFilter.html
小写:将标记文本规范化为小写。 请参见https://lucene.apache.org/core/6_6_1/analyzers-common/org/apache/lucene/analysis/core/LowerCaseFilter.html
标准:标准规范化器,由小写和 asciifolding 组成。 请参见http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/reverse/ReverseStringFilter.html
大写:将标记文本规范化为大写。 请参见https://lucene.apache.org/core/6_6_1/analyzers-common/org/apache/lucene/analysis/core/UpperCaseFilter.html

LexicalTokenizer

包含 Tokenizer 的可能情况。

LexicalTokenizerName

定义搜索引擎支持的所有分词器的名称。
<xref:KnownLexicalTokenizerName> 可与 LexicalTokenizerName 互换使用,此枚举包含服务支持的已知值。

服务支持的已知值

经典:适用于处理大多数欧洲语言文档的基于语法的 tokenizer。 请参见http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicTokenizer.html
edgeNGram:将输入从边缘切入给定大小的 n 元语法。 请参见https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenizer.html
keyword_v2:以单个令牌的形式发出整个输入。 请参见http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordTokenizer.html
字母:以非字母分隔文本。 请参见http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LetterTokenizer.html
小写:将文本除以非字母并将它们转换为小写。 请参见http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LowerCaseTokenizer.html
microsoft_language_tokenizer:使用特定于语言的规则划分文本。
microsoft_language_stemming_tokenizer:使用特定于语言的规则划分文本,并将单词减少到其基本形式。
nGram:将输入切分为给定大小的 n 元语法。 请参见http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenizer.html
path_hierarchy_v2:用于类似路径的层次结构的 Tokenizer。 请参见http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/path/PathHierarchyTokenizer.html
模式:使用正则表达式模式匹配构造不同令牌的 Tokenizer。 请参见http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/pattern/PatternTokenizer.html
standard_v2:标准 Lucene 分析器;由标准 tokenizer、小写筛选器和停止筛选器组成。 请参见http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/StandardTokenizer.html
uax_url_email:将 URL 和电子邮件作为一个令牌进行标记化。 请参见http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/UAX29URLEmailTokenizer.html
空格:在空格处划分文本。 请参见http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceTokenizer.html

ListAliasesOptions

列表别名操作的选项。

ListDataSourceConnectionsOptions

列表数据源操作的选项。

ListIndexersOptions

列表索引器操作的选项。

ListIndexesOptions

列表索引操作的选项。

ListSkillsetsOptions

列表技能集操作的选项。

ListSynonymMapsOptions

列表 synonymMaps 操作的选项。

MarkdownHeaderDepth

指定对 Markdown 内容进行分组时将考虑的最大标头深度。 默认值为 h6
KnownMarkdownHeaderDepth 可以与 MarkdownHeaderDepth 互换使用,此枚举包含服务支持的已知值。

服务支持的已知值

h1:指示在对 Markdown 内容进行分组时将考虑最高级别为 h1 的标头。
h2:指示在对 Markdown 内容进行分组时将考虑高达 h2 级别的标头。
h3:指示在对 Markdown 内容进行分组时将考虑最高级别为 h3 的标头。
h4:表示在对 Markdown 内容进行分组时将考虑最高级别为 h4 的标头。
h5:指示在对 Markdown 内容进行分组时将考虑最高级别为 h5 的标头。
h6:指示在对 Markdown 内容进行分组时将考虑高达 h6 级别的标头。 这是默认值。

MarkdownParsingSubmode

指定子模式,用于确定 Markdown 文件是将分析为一个搜索文档还是多个搜索文档。 默认值为 oneToMany
KnownMarkdownParsingSubmode 可以与 MarkdownParsingSubmode 互换使用,此枚举包含服务支持的已知值。

服务支持的已知值

oneToMany:指示 Markdown 文件的每个部分(最多指定深度)将被分析为单独的搜索文档。 这可能会导致单个 Markdown 文件生成多个搜索文档。 这是默认的子模式。
oneToOne:指示每个 Markdown 文件将分析为单个搜索文档。

MergeDocumentsOptions

合并文档操作的选项。

MergeOrUploadDocumentsOptions

合并或上传文档操作的选项。

MicrosoftStemmingTokenizerLanguage

列出了 Microsoft 语言词干分词器支持的语言。

MicrosoftTokenizerLanguage

列出了 Microsoft 语言分词器支持的语言。

NarrowedModel

缩小模型类型以仅包含所选字段

OcrLineEnding

定义要在 OCR 技能识别的文本行之间使用的字符序列。 默认值为“space”。
KnownOcrLineEnding 可与 OcrLineEnding 互换使用,此枚举包含服务支持的已知值。

服务支持的已知值

空格:行由单个空格字符分隔。
回车:行由回车符(“\r”)字符分隔。
lineFeed:行由单个换行符(“\n”)字符分隔。
carriageReturnLineFeed:行由回车符和换行符(“\r\n”)字符分隔。

OcrSkillLanguage
PIIDetectionSkillMaskingMode
PhoneticEncoder

标识要与 PhoneticTokenFilter 一起使用的语音编码器类型。

QueryAnswer

一个值,该值指定是否应作为搜索响应的一部分返回答案。 仅当查询类型为“semantic”时,此参数才有效。 如果设置为 extractive,查询将返回从排名最高的文档中的关键段落中提取的答案。

QueryCaption

一个值,该值指定是否应返回标题作为搜索响应的一部分。 仅当查询类型为“semantic”时,此参数才有效。 如果已设置,查询将返回从排名最高的文档中的关键段落中提取的标题。 当标题为“提取”时,默认情况下会启用突出显示。 默认值为“none”。

QueryDebugMode

启用可用于进一步探索搜索结果的调试工具。 您可以通过使用 |字符,例如:semantic|queryRewrites。
KnownQueryDebugMode 可与 QueryDebugMode 互换使用,此枚举包含服务支持的已知值。

服务支持的已知值

禁用:不会返回查询调试信息。
语义:允许用户进一步探索其重新创建的结果。
vector:允许用户进一步探索其混合查询和向量查询结果。
queryRewrites:允许用户浏览为其搜索请求生成的查询重写列表。
innerHits:允许用户检索有关复杂类型集合中匹配的向量的评分信息。
all:打开所有调试选项。

QueryRewrites

定义查询重写的选项。

QueryType

指定搜索查询的语法。 默认值为“simple”。 如果查询使用 Lucene 查询语法,请使用“full”,如果不需要查询语法,请使用“semantic”。
<xref:KnownQueryType> 可以与 QueryType 互换使用,该枚举包含服务支持的已知值。

服务支持的已知值

简单:使用简单的查询语法进行搜索。 搜索文本使用允许 +、* 和“”等符号的简单查询语言进行解释。 默认情况下,查询会跨所有可搜索字段进行评估,除非指定了 searchFields 参数。
完整:使用完整的Lucene查询语法进行搜索。 使用 Lucene 查询语言解释搜索文本,该语言允许特定于字段的加权搜索以及其他高级功能。
义:最适合用自然语言表达的查询,而非关键词。 通过使用在 Web 语料库上训练的排名模型对排名靠前的搜索结果进行重新排名,提高搜索结果的精度。

RankingOrder

表示用于文档排序顺序的分数。
KnownRankingOrder 可以与 RankingOrder 互换使用,此枚举包含服务支持的已知值。

服务支持的已知值

BoostedRerankerScore:将排序顺序设置为 BoostedRerankerScore
RerankerScore:将排序顺序设置为 ReRankerScore

RegexFlags
ResetIndexerOptions

用于重置索引器操作的选项。

RunIndexerOptions

用于运行索引器操作的选项。

ScoringFunction

包含 ScoringFunction 的可能案例。

ScoringFunctionAggregation

定义用于组合评分配置文件中所有评分函数的结果的聚合函数。

ScoringFunctionInterpolation

定义用于在一系列文档中插值分数提升的函数。

ScoringStatistics

一个值,该值指定是全局计算计分统计信息(如文档频率),以更一致评分,还是在本地计算延迟较低。 默认值为“local”。 在评分之前,使用“global”全局汇总评分统计信息。 使用全局评分统计信息可能会增加搜索查询的延迟。

SearchField

表示索引定义中的字段,该定义描述字段的名称、数据类型和搜索行为。

SearchFieldArray

如果 TModel 为非类型化对象,则为非类型化字符串数组;否则为 TModel的斜杠分隔字段。

SearchFieldDataType

定义 SearchFieldDataType 的值。

服务支持的已知值:

Edm.String:指示字段包含字符串。

Edm.Int32:指示字段包含 32 位带符号整数。

Edm.Int64:指示字段包含 64 位带符号整数。

Edm.Double:指示字段包含 IEEE 双精度浮点数。

Edm.Boolean:指示字段包含布尔值(true 或 false)。

Edm.DateTimeOffset:指示字段包含日期/时间值,包括时区信息。

Edm.GeographyPoint:指示字段在经度和纬度方面包含地理位置。

Edm.ComplexType:指示字段包含一个或多个复杂对象,而该对象又包含其他类型的子字段。

Edm.Single:指示字段包含单精度浮点数。 仅当用作集合类型的一部分(即 Collection(Edm.Single)时才有效。

Edm.Half:指示字段包含半精度浮点数。 仅当用作集合类型的一部分(即 Collection(Edm.Half)时才有效。

Edm.Int16:指示字段包含 16 位带符号整数。 仅当用作集合类型的一部分(即 Collection(Edm.Int16)时才有效。

Edm.SByte:指示字段包含 8 位带符号整数。 仅当用作集合类型的一部分(即 Collection(Edm.SByte)时才有效。

Edm.Byte:指示字段包含 8 位无符号整数。 仅当用作集合类型的一部分(即 Collection(Edm.Byte)时才有效。

SearchIndexAlias

搜索别名对象。

SearchIndexerDataIdentity

包含 SearchIndexerDataIdentity 的可能情况。

SearchIndexerDataSourceType
SearchIndexerSkill

包含技能的可能案例。

SearchIndexingBufferedSenderDeleteDocumentsOptions

SearchIndexingBufferedSenderDeleteDocuments 的选项。

SearchIndexingBufferedSenderFlushDocumentsOptions

SearchIndexingBufferedSenderFlushDocuments 的选项。

SearchIndexingBufferedSenderMergeDocumentsOptions

SearchIndexingBufferedSenderMergeDocuments 的选项。

SearchIndexingBufferedSenderMergeOrUploadDocumentsOptions

SearchIndexingBufferedSenderMergeOrUploadDocuments 的选项。

SearchIndexingBufferedSenderUploadDocumentsOptions

SearchIndexingBufferedSenderUploadDocuments 的选项。

SearchIterator

用于帕特查询搜索结果的迭代器。 将在迭代期间根据需要发出请求。 使用 .byPage() 对每次迭代的服务器发出一个请求。

SearchMode

指定是否必须匹配任何或所有搜索词才能将文档计为匹配项。

SearchOptions

提交完整搜索请求的选项。

SearchPick

使用有效的 AI 搜索 OData $select路径深入选取 T 字段。

SearchRequestOptions

用于筛选、排序、分面、分页和其他搜索查询行为的参数。

SearchRequestQueryTypeOptions
SearchResult

包含搜索查询找到的文档,以及关联的元数据。

SelectFields

使用根植于 T 的字段树的后序遍历,为 T 生成有效的 AI 搜索 OData $select路径的并集。

SemanticErrorMode
SemanticErrorReason
SemanticSearchResultsType

为语义排名请求返回的部分响应类型。
KnownSemanticSearchResultsType 可以与 SemanticSearchResultsType 互换使用,该枚举包含服务支持的已知值。

服务支持的已知值

baseResults:无语义丰富或重新排序的结果。
rerankedResults:结果已通过重新排序模型重新排序,并将包含语义说明。 它们不会包含任何答案、答案突出显示或标题突出显示。

SentimentSkillLanguage

SentimentSkill 支持的输入文本的语言代码。
KnownSentimentSkillLanguage 可以与 SentimentSkillLanguage 互换使用,该枚举包含服务支持的已知值。

服务支持的已知值

da:丹麦语
nl:荷兰语
英语
fi:芬兰语
语:法语
德语:德语
el:希腊语
:意大利语
不:挪威语(Bokmaal)
波兰
pt-PT:葡萄牙语(葡萄牙)
ru:俄语
es:西班牙语
sv:瑞典语
tr:土耳其语

Similarity

SimilarityAlgorithmUnion 的别名

SimilarityAlgorithm

包含相似性可能的情况。

SnowballTokenFilterLanguage

用于 Snowball 令牌筛选器的语言。

SplitSkillLanguage
StemmerTokenFilterLanguage

用于词干分析器标记筛选器的语言。

StopwordsList

标识特定于语言的停用词的预定义列表。

SuggestNarrowedModel
SuggestOptions

用于基于 searchText 检索建议的选项。

SuggestResult

包含由建议查询找到的文档的结果,以及关联的元数据。

TextSplitMode
TextTranslationSkillLanguage
TokenCharacterKind

表示令牌筛选器可以作的字符类。

TokenFilter

包含 TokenFilter 的可能情况。

TokenFilterName

定义搜索引擎支持的所有令牌过滤器的名称。
<xref:KnownTokenFilterName> 可与 TokenFilterName 互换使用,此枚举包含服务支持的已知值。

服务支持的已知值

arabic_normalization:应用阿拉伯规范化器规范化的标记筛选器。 请参见http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ar/ArabicNormalizationFilter.html
撇号:删除撇号后的所有字符(包括撇号本身)。 请参见http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/tr/ApostropheFilter.html
asciifolding:将前 127 个 ASCII 字符(“基本拉丁语”Unicode 块)中的字母、数字和符号 Unicode 字符转换为其 ASCII 等效项(如果存在此类等效项)。 请参见http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ASCIIFoldingFilter.html
cjk_bigram:形成从标准标记器生成的 CJK 术语的 bigram。 请参见http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/cjk/CJKBigramFilter.html
cjk_width:规范化 CJK 宽度差异。 将全幅ASCII变体折叠成等效的基础拉丁文,将半宽片假名折成等价的假名。 请参见http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/cjk/CJKWidthFilter.html
经典:从首字母缩略词中删除英语拥有者和点。 请参见http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicFilter.html
common_grams:为索引时经常出现的字词构造 bigrams。 单个字词仍编制索引,并覆盖 bigrams。 请参见http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/commongrams/CommonGramsFilter.html
edgeNGram_v2:从输入令牌的前面或后面开始生成给定大小的 n 元语法。 请参见http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenFilter.html
elision: 删除 elisions。 例如,“l'avion”(平面)将转换为“avion”(平面)。 请参见http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/util/ElisionFilter.html
german_normalization:根据德国 2 雪球算法的启发法规范德语字符。 请参见http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/de/GermanNormalizationFilter.html
hindi_normalization:规范印地语中的文本,以消除拼写变体的一些差异。 请参见http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/hi/HindiNormalizationFilter.html
indic_normalization:以印度语言规范化文本的 Unicode 表示形式。 请参见http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/in/IndicNormalizationFilter.html
keyword_repeat:发出每个传入令牌两次,一次作为关键字发出,一次作为非关键字发出一次。 请参见http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/KeywordRepeatFilter.html
kstem:适用于英语的高性能 kstem 筛选器。 请参见http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/en/KStemFilter.html
长度:删除太长或太短的单词。 请参见http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LengthFilter.html
限制:在编制索引时限制令牌数。 请参见http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LimitTokenCountFilter.html
小写:将标记文本规范化为小写。 请参见https://lucene.apache.org/core/6_6_1/analyzers-common/org/apache/lucene/analysis/core/LowerCaseFilter.html
nGram_v2:生成给定大小的 n 元语法。 请参见http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenFilter.html
persian_normalization:对波斯语应用规范化。 请参见http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/fa/PersianNormalizationFilter.html
拼音:为拼音匹配创建令牌。 请参见https://lucene.apache.org/core/4_10_3/analyzers-phonetic/org/apache/lucene/analysis/phonetic/package-tree.html
porter_stem:使用 Porter 词干算法转换令牌流。 请参见http://tartarus.org/~martin/PorterStemmer
反向:反转令牌字符串。 请参见http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/reverse/ReverseStringFilter.html
scandinavian_normalization:规范化使用可互换的斯堪的纳维亚字符。 请参见http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ScandinavianNormalizationFilter.html
scandinavian_folding:折叠斯堪的纳维亚字符 Ã¥Ã......äÆ>-a和Ö-Ã̧-o>。 它还歧视使用双元音 aa, ae, ao, oe 和 oo, 只留下第一个。 请参见http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ScandinavianFoldingFilter.html
闪亮:将令牌的组合创建为单个令牌。 请参见http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/shingle/ShingleFilter.html
雪球:使用 Snowball 生成的词干分析器的词干筛选器。 请参见http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/snowball/SnowballFilter.html
sorani_normalization:规范化 Sorani 文本的 Unicode 表示形式。 请参见http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ckb/SoraniNormalizationFilter.html
词干分析器:特定于语言的词干筛选。 请参见https://learn.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#TokenFilters
非索引字:从令牌流中删除非索引字。 请参见http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopFilter.html
剪裁:剪裁标记中的前导空格和尾随空格。 请参见http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/TrimFilter.html
截断:将术语截断为特定长度。 请参见http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/TruncateTokenFilter.html
唯一:筛选出与上一个标记相同的文本的令牌。 请参见http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/RemoveDuplicatesTokenFilter.html
大写:将标记文本规范化为大写。 请参见https://lucene.apache.org/core/6_6_1/analyzers-common/org/apache/lucene/analysis/core/UpperCaseFilter.html
word_delimiter:将单词拆分为子词,对子词组执行可选转换。

UnionToIntersection
UploadDocumentsOptions

上传文档操作的选项。

VectorEncodingFormat

用于解释向量字段内容的编码格式。
KnownVectorEncodingFormat 可与 VectorEncodingFormat 互换使用,此枚举包含服务支持的已知值。

服务支持的已知值

packedBit:编码格式,表示打包到更广泛的数据类型中的位。

VectorFilterMode
VectorQuery

矢量和混合搜索查询的查询参数。

VectorQueryKind
VectorSearchAlgorithmConfiguration

包含特定于索引编制和/或查询期间使用的算法的配置选项。

VectorSearchAlgorithmKind
VectorSearchAlgorithmMetric
VectorSearchCompression

包含特定于索引或查询期间使用的压缩方法的配置选项。

VectorSearchCompressionKind

用于索引和查询的压缩方法。
KnownVectorSearchCompressionKind 可与 VectorSearchCompressionKind 互换使用,此枚举包含服务支持的已知值。

服务支持的已知值

scalarQuantization:Scalar Quantization,一种压缩方法类型。 在标量量子化中,原始向量值通过离散化和表示矢量的每个分量(使用一组量化值)压缩为较窄的类型,从而减少整体数据大小。
binaryQuantization:二进制量化,一种压缩方法类型。 在二进制量化中,原始向量值通过离散化和表示使用二进制值表示矢量的每个组件来压缩为更窄的二进制类型,从而减少整体数据大小。

VectorSearchCompressionRescoreStorageMethod

用于重新评分和内部索引作的原始全精度向量的存储方法。
KnownVectorSearchCompressionRescoreStorageMethod 可以与 VectorSearchCompressionRescoreStorageMethod 互换使用,此枚举包含服务支持的已知值。

服务支持的已知值

preserveOriginals:此选项保留原始全精度向量。 选择此选项可最大程度地提高压缩搜索结果的灵活性和最高质量。 这会消耗更多存储,但允许重新记录和过度采样。
discardOriginals:此选项丢弃原始全精度向量。 选择此选项可节省最大存储空间。 由于此选项不允许重新评分和过度采样,因此通常会导致质量略有下降。

VectorSearchCompressionTarget

压缩向量值的量化数据类型。
KnownVectorSearchCompressionTarget 可与 VectorSearchCompressionTarget 互换使用,此枚举包含服务支持的已知值。

服务支持的已知值

int8:8位有符号整数。

VectorSearchVectorizer

包含有关如何向量化文本矢量查询的配置选项。

VectorSearchVectorizerKind

查询时要使用的矢量化方法。
KnownVectorSearchVectorizerKind 可与 VectorSearchVectorizerKind 互换使用,此枚举包含服务支持的已知值。

服务支持的已知值

azureOpenAI:在查询时使用 Azure OpenAI 资源生成嵌入内容。
customWebApi:在查询时使用自定义 Web 终结点生成嵌入内容。
aiServicesVision:使用 Azure AI 服务视觉矢量化 API 在查询时为图像或文本输入生成嵌入内容。
aml:在查询时使用通过 Azure AI Foundry 模型目录部署的 Azure 机器学习终结点生成嵌入。

VisualFeature
WebApiSkills

枚举

KnownAIFoundryModelCatalogName

来自Azure AI Foundry目录的嵌入模型名称。

KnownAnalyzerNames

定义 AnalyzerName 的值。 请参见https://learn.microsoft.com/rest/api/searchservice/Language-support

KnownAzureOpenAIModelName

将调用的 Azure Open AI 模型名称。

KnownBlobIndexerDataToExtract

指定要从 Azure Blob 存储中提取的数据,并告知索引器在将“imageAction”设置为“none”以外的值时要从图像内容中提取哪些数据。 这适用于 .PDF 或其他应用程序中的嵌入图像内容,或 Azure blob 中的图像文件(如 .jpg 和 .png)。

KnownBlobIndexerImageAction

确定如何处理 Azure Blob 存储中的嵌入图像和图像文件。 将“imageAction”配置设置为“none”以外的任何值都需要将技能组附加到该索引器。

KnownBlobIndexerPDFTextRotationAlgorithm

确定从 Azure Blob 存储中的 PDF 文件提取文本的算法。

KnownBlobIndexerParsingMode

表示从 Azure blob 数据源编制索引的分析模式。

KnownCharFilterNames

定义 CharFilterName 的值。

KnownChatCompletionExtraParametersBehavior

规定Azure AI Foundry应如何处理“extraParameters”。 默认为“错误”。

KnownChatCompletionResponseFormatType

指定 LLM 应如何格式化响应。

KnownContentUnderstandingSkillChunkingUnit

控制区块单元的基数。 默认值为“字符”

KnownContentUnderstandingSkillExtractionOptions

控制技能从文档中提取的内容的基数。

KnownCustomEntityLookupSkillLanguage

CustomEntityLookupSkill 支持的输入文本的语言代码。

KnownDocumentIntelligenceLayoutSkillChunkingUnit

控制区块单元的基数。 默认值为“字符”

KnownDocumentIntelligenceLayoutSkillExtractionOptions

控制技能从文档中提取的内容的基数。

KnownDocumentIntelligenceLayoutSkillMarkdownHeaderDepth

markdown 输出中标头的深度。 默认值为 h6。

KnownDocumentIntelligenceLayoutSkillOutputFormat

控制输出格式的基数。 默认值为“markdown”。

KnownDocumentIntelligenceLayoutSkillOutputMode

控制技能生成的输出的基数。 默认值为“oneToMany”。

KnownEntityCategory

指示要返回的实体类别的字符串。

KnownEntityRecognitionSkillLanguage

EntityRecognitionSkill支持的输入文本的语言代码。

KnownImageAnalysisSkillLanguage

ImageAnalysisSkill支持输入的语言代码。

KnownImageDetail

一个字符串,指示要返回的特定于域的详细信息。

KnownIndexProjectionMode

定义索引投影相对于索引器其余部分的行为。

KnownIndexerExecutionEnvironment

指定应在其中执行索引器的环境。

KnownIndexerResyncOption

具有各种类型的权限数据以建立索引的选项。

KnownKeyPhraseExtractionSkillLanguage

KeyPhraseExtractionSkill 支持的输入文本的语言代码。

KnownKnowledgeBaseModelKind

用于查询规划的 AI 模型。

KnownKnowledgeSourceKind

知识来源的那种。

KnownLexicalAnalyzerName

定义搜索引擎支持的所有文本分析器的名称。

KnownLexicalNormalizerName

定义搜索引擎支持的所有文本规范化器的名称。

KnownMarkdownHeaderDepth

指定对 Markdown 内容进行分组时将考虑的最大标头深度。 默认值为 h6

KnownMarkdownParsingSubmode

指定子模式,用于确定 Markdown 文件是将分析为一个搜索文档还是多个搜索文档。 默认值为 oneToMany

KnownOcrLineEnding

定义要在 OCR 技能识别的文本行之间使用的字符序列。 默认值为“space”。

KnownOcrSkillLanguage

OcrSkill支持输入的语言代码。

KnownPIIDetectionSkillMaskingMode

一个字符串,指示要使用哪个 maskingMode 来屏蔽在输入文本中检测到的个人信息。

KnownQueryDebugMode

启用可用于进一步探索搜索结果的调试工具。 您可以通过使用 |字符,例如:semantic|queryRewrites。

KnownRankingOrder

表示用于文档排序顺序的分数。

KnownRegexFlags

定义了一个可用于模式分析器和模式分词器的正则表达式标志。

KnownSearchAudience

搜索受众的已知值

KnownSearchFieldDataType

定义搜索索引中字段的数据类型。

KnownSearchIndexerDataSourceType

定义数据源的类型。

KnownSemanticErrorMode

允许用户选择语义调用是否完全失败,或返回部分结果。

KnownSemanticErrorReason

为语义排名请求返回部分响应的原因。

KnownSemanticSearchResultsType

为语义排名请求返回的部分响应类型。

KnownSentimentSkillLanguage

SentimentSkill 支持的输入文本的语言代码。

KnownSplitSkillLanguage

SplitSkill 支持输入文本的语言代码。

KnownTextSplitMode

一个值,指示要执行的拆分模式。

KnownTextTranslationSkillLanguage

TextTranslationSkill 支持的输入文本的语言代码。

KnownTokenFilterNames

定义 TokenFilterName 的值。

KnownTokenizerNames

定义 TokenizerName 的值。

KnownVectorEncodingFormat

用于解释向量字段内容的编码格式。

KnownVectorFilterMode

确定是在执行矢量搜索之前还是之后应用过滤器。

KnownVectorQueryKind

正在执行的矢量查询类型。

KnownVectorSearchAlgorithmKind

用于索引和查询的算法。

KnownVectorSearchAlgorithmMetric

用于向量比较的相似度指标。 建议选择与训练嵌入模型相同的相似性指标。

KnownVectorSearchCompressionKind

用于索引和查询的压缩方法。

KnownVectorSearchCompressionRescoreStorageMethod

用于重新评分和内部索引作的原始全精度向量的存储方法。

KnownVectorSearchCompressionTarget

压缩向量值的量化数据类型。

KnownVectorSearchVectorizerKind

查询时要使用的矢量化方法。

KnownVisualFeature

指示要返回的视觉特征类型的字符串。

函数

createSynonymMapFromFile(string, string)

用于创建 SynonymMap 对象的帮助程序方法。 这是仅 NodeJS 方法。

odata(TemplateStringsArray, unknown[])

转义 odata 筛选器表达式,以避免引用字符串文本的错误。 示例用法:

import { odata } from "@azure/search-documents";

const baseRateMax = 200;
const ratingMin = 4;
const filter = odata`Rooms/any(room: room/BaseRate lt ${baseRateMax}) and Rating ge ${ratingMin}`;

有关支持的语法的详细信息,请参阅:https://learn.microsoft.com/azure/search/search-query-odata-filter

变量

DEFAULT_BATCH_SIZE

默认批次大小

DEFAULT_FLUSH_WINDOW

默认窗口冲洗间隔

DEFAULT_RETRY_COUNT

默认重试次数。

函数详细信息

createSynonymMapFromFile(string, string)

用于创建 SynonymMap 对象的帮助程序方法。 这是仅 NodeJS 方法。

function createSynonymMapFromFile(name: string, filePath: string): Promise<SynonymMap>

参数

name

string

SynonymMap 的名称。

filePath

string

包含同义词的文件的路径(由新行分隔)

返回

Promise<SynonymMap>

SynonymMap 对象

odata(TemplateStringsArray, unknown[])

转义 odata 筛选器表达式,以避免引用字符串文本的错误。 示例用法:

import { odata } from "@azure/search-documents";

const baseRateMax = 200;
const ratingMin = 4;
const filter = odata`Rooms/any(room: room/BaseRate lt ${baseRateMax}) and Rating ge ${ratingMin}`;

有关支持的语法的详细信息,请参阅:https://learn.microsoft.com/azure/search/search-query-odata-filter

function odata(strings: TemplateStringsArray, values: unknown[]): string

参数

strings

TemplateStringsArray

表达式的字符串数组

values

unknown[]

表达式的值数组

返回

string

变量详细信息

DEFAULT_BATCH_SIZE

默认批次大小

DEFAULT_BATCH_SIZE: number

类型

number

DEFAULT_FLUSH_WINDOW

默认窗口冲洗间隔

DEFAULT_FLUSH_WINDOW: number

类型

number

DEFAULT_RETRY_COUNT

默认重试次数。

DEFAULT_RETRY_COUNT: number

类型

number