次の方法で共有


Microsoft.Azure.Search.Models 名前空間

クラス

AccessCondition

一連の操作の追加パラメーター。

Analyzer

アナライザーの抽象基本クラス。

AnalyzeRequest

そのテキストをトークンに分割するために使用されるテキストコンポーネントと分析コンポーネントを指定します。

AnalyzeResult

テキストでアナライザーをテストした結果。

AnalyzerName.AsString

すべてのアナライザーの名前をプレーン文字列として指定します。

AsciiFoldingTokenFilter

最初の 127 文字の ASCII 文字 ("Basic Latin" Unicode ブロック) にないアルファベット文字、数値文字、およびシンボリック Unicode 文字を、ASCII に相当する文字 (存在する場合) に変換します。 このトークン フィルターは、Apache Lucene を使用して実装されます。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ASCIIFoldingFilter.html

AutocompleteItem

オートコンプリート要求の結果。

AutocompleteParameters

AutocompleteGet 操作の追加パラメーター。

AutocompleteResult

オートコンプリート クエリの結果。

CharFilter

文字フィルターの抽象基本クラス。 https://docs.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search

CjkBigramTokenFilter

StandardTokenizer から生成される CJK 用語のバイグラムが形成されます。 このトークン フィルターは、Apache Lucene を使用して実装されます。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/cjk/CJKBigramFilter.html

ClassicTokenizer

ほとんどのヨーロッパ言語ドキュメントの処理に適した文法ベースのトークナイザー。 このトークナイザーは、Apache Lucene を使用して実装されます。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicTokenizer.html

CognitiveServices

スキルセットにアタッチされているコグニティブ サービス リソースを記述するための抽象基本クラス。

CognitiveServicesByKey

スキルセットにアタッチされているキーを使用してプロビジョニングされたコグニティブ サービス リソース。

CommonGramTokenFilter

インデックス付けの間に、頻繁に発生する用語に対してバイグラムが作成されます。 1 つの用語も、バイグラムがオーバーレイされてインデックス付けされます。 このトークン フィルターは、Apache Lucene を使用して実装されます。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/commongrams/CommonGramsFilter.html

ConditionalSkill

ブール演算を必要とするシナリオで、出力に割り当てるデータを決定できるようにするスキル。 https://docs.microsoft.com/azure/search/cognitive-search-skill-conditional

CorsOptions

インデックスのクロスオリジン リソース共有 (CORS) を制御するオプションを定義します。 https://docs.microsoft.com/rest/api/searchservice/Create-Index

CustomAnalyzer

テキストをインデックス可能/検索可能なトークンに変換するプロセスを制御できます。 これは、1 つの定義済みのトークナイザーと 1 つ以上のフィルターで構成されるユーザー定義の構成です。 トークナイザーは、テキストをトークンに分割し、トークナイザーによって出力されるトークンを変更するためのフィルターを担当します。

DataChangeDetectionPolicy

データ変更検出ポリシーの抽象型基本クラス。

DataContainer

インデックスが作成されるエンティティ (Azure SQL テーブルや DocumentDb コレクションなど) に関する情報を表します。

DataDeletionDetectionPolicy

データ削除検出ポリシーの抽象型基本クラス。

DataSource

インデクサーの構成に使用できるデータソース定義を表します。

DataSourceCredentials

データソースに接続するために使用できる資格情報を表します。

DataSourceListResult

データソースの一覧表示要求からの応答。 成功した場合は、すべてのデータソースの完全な定義が含まれます。

DataType.AsString

すべてのデータ型の名前をプレーン文字列として指定します。

DataTypeExtensions

の拡張メソッドを定義します DataType

DefaultCognitiveServices

スキルセットの既定のコグニティブ サービス リソースを表す空のオブジェクト。

DictionaryDecompounderTokenFilter

多くのゲルマン言語に出現する複合語を分解します。 このトークン フィルターは、Apache Lucene を使用して実装されます。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/compound/DictionaryCompoundWordTokenFilter.html

DistanceScoringFunction

地理的な場所からの距離に基づいてスコアをブーストする関数を定義します。 https://docs.microsoft.com/rest/api/searchservice/Add-scoring-profiles-to-a-search-index

DistanceScoringParameters

距離スコアリング関数にパラメーター値を提供します。

Document

ドキュメントをプロパティ バッグとして表します。 これは、インデックス スキーマが実行時にのみ認識されるシナリオに役立ちます。

DocumentIndexResult

インデックス作成要求内のすべてのドキュメントの操作の状態を含む応答。

DocumentSearchResult<T>

インデックスからの検索結果を含む応答。

DocumentSuggestResult<T>

インデックスからの提案クエリ結果を含む応答。

EdgeNGramTokenFilter

入力トークンの前面または背面から始まる、指定されたサイズの n-gram を生成します。 このトークン フィルターは、Apache Lucene を使用して実装されます。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenFilter.html

EdgeNGramTokenFilterV2

入力トークンの前面または背面から始まる、指定されたサイズの n-gram を生成します。 このトークン フィルターは、Apache Lucene を使用して実装されます。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenFilter.html

EdgeNGramTokenizer

エッジからの入力を特定のサイズの n グラムにトークン化します。 このトークナイザーは、Apache Lucene を使用して実装されます。 https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenizer.html

ElisionTokenFilter

省略記号が削除されます。 たとえば、"l'avion" (平面) は "avion" (平面) に変換されます。 このトークン フィルターは、Apache Lucene を使用して実装されます。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/util/ElisionFilter.html

EntityRecognitionSkill

テキスト分析エンティティ認識。 https://docs.microsoft.com/azure/search/cognitive-search-skill-entity-recognition

FacetResult

ファセット クエリ結果の 1 つのバケット。 フィールド値が特定の範囲内にある、または特定の値または間隔を持つドキュメントの数を報告します。

Field

フィールドの名前、データ型、および検索動作を記述する、インデックス定義内のフィールドを表します。 https://docs.microsoft.com/rest/api/searchservice/Create-Index

FieldMapping

データ ソース内のフィールドとインデックス内のターゲット フィールドの間のマッピングを定義します。 https://docs.microsoft.com/azure/search/search-indexer-field-mappings

FieldMappingFunction

インデックスを作成する前にデータ ソースから値を変換する関数を表します。 https://docs.microsoft.com/azure/search/search-indexer-field-mappings

FreshnessScoringFunction

日時フィールドの値に基づいてスコアをブーストする関数を定義します。 https://docs.microsoft.com/rest/api/searchservice/Add-scoring-profiles-to-a-search-index

FreshnessScoringParameters

鮮度スコアリング関数にパラメーター値を提供します。

HighWaterMarkChangeDetectionPolicy

高ウォーター マーク列の値に基づいて変更をキャプチャするデータ変更検出ポリシーを定義します。

ImageAnalysisSkill

画像ファイルを分析するスキル。 画像コンテンツに基づいて、豊富なビジュアル機能のセットを抽出します。 https://docs.microsoft.com/azure/search/cognitive-search-skill-image-analysis

Index

インデックスのフィールドと検索動作を記述する検索インデックス定義を表します。

IndexAction

ドキュメントに対して動作するインデックス アクションを作成するためのファクトリ メソッドを提供します。

IndexAction<T>

ドキュメントに対して動作するインデックス アクションを表します。

IndexBatch

検索インデックスに送信するドキュメント書き込み操作のバッチを作成するためのファクトリ メソッドを提供します。

IndexBatch<T>

インデックスに送信するドキュメント書き込みアクションのバッチが含まれます。

Indexer

インデクサーを表します。 https://docs.microsoft.com/rest/api/searchservice/Indexer-operations

IndexerExecutionInfo

インデクサーの現在の状態と実行の履歴を表します。

IndexerExecutionResult

個々のインデクサーの実行結果を表します。

IndexerLimits
IndexerListResult

インデクサーの一覧表示要求からの応答。 成功した場合は、すべてのインデクサーの完全な定義が含まれます。

IndexGetStatisticsResult

特定のインデックスの統計。 統計は定期的に収集され、常に最新であるとは限りません。

IndexingParameters

インデクサー実行のパラメーターを表します。

IndexingParametersExtensions

IndexingParameters クラスの拡張メソッドを定義します。

IndexingResult

1 つのドキュメントのインデックス作成操作の状態。

IndexingSchedule

インデクサー実行のスケジュールを表します。

IndexListResult

List Indexes 要求からの応答。 成功した場合は、すべてのインデックスの完全な定義が含まれます。

InputFieldMappingEntry

スキルの入力フィールド マッピング。

ItemError

アイテムレベルまたはドキュメントレベルのインデックス作成エラーを表します。

ItemWarning

アイテム レベルの警告を表します。

KeepTokenFilter

指定した単語の一覧に含まれるテキストを持つトークンのみを保持するトークン フィルター。 このトークン フィルターは、Apache Lucene を使用して実装されます。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/KeepWordFilter.html

KeyPhraseExtractionSkill

キー フレーズ抽出にテキスト分析を使用するスキル。 https://docs.microsoft.com/azure/search/cognitive-search-skill-keyphrases

KeywordMarkerTokenFilter

用語がキーワードとしてマークされます。 このトークン フィルターは、Apache Lucene を使用して実装されます。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/KeywordMarkerFilter.html

KeywordTokenizer

入力全体が 1 つのトークンとして生成されます。 このトークナイザーは、Apache Lucene を使用して実装されます。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordTokenizer.html

KeywordTokenizerV2

入力全体が 1 つのトークンとして生成されます。 このトークナイザーは、Apache Lucene を使用して実装されます。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordTokenizer.html

LanguageDetectionSkill

入力テキストの言語を検出し、要求で送信されたすべてのドキュメントに対して 1 つの言語コードを報告するスキル。 言語コードは、分析の信頼度を示すスコアとペアになっています。 https://docs.microsoft.com/azure/search/cognitive-search-skill-language-detection

LengthTokenFilter

長すぎる単語または短すぎる単語が削除されます。 このトークン フィルターは、Apache Lucene を使用して実装されます。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LengthFilter.html

LimitTokenFilter

インデックス付けの間に、トークンの数が制限されます。 このトークン フィルターは、Apache Lucene を使用して実装されます。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LimitTokenCountFilter.html

MagnitudeScoringFunction

数値フィールドの大きさに基づいてスコアをブーストする関数を定義します。 https://docs.microsoft.com/rest/api/searchservice/Add-scoring-profiles-to-a-search-index

MagnitudeScoringParameters

マグニチュード スコアリング関数にパラメーター値を提供します。

MappingCharFilter

マッピング オプションで定義されたマッピングを適用する文字フィルター。 一致は最長一致です (特定ポイントでの最長パターン マッチングを優先)。 空の文字列での置換が許可されます。 この文字フィルターは、Apache Lucene を使用して実装されます。 https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/charfilter/MappingCharFilter.html

MergeSkill

2 つ以上の文字列を 1 つの統合文字列にマージするスキル。オプションのユーザー定義区切り記号で各コンポーネント パーツを区切ります。 https://docs.microsoft.com/azure/search/cognitive-search-skill-textmerger

MicrosoftLanguageStemmingTokenizer

言語固有のルールを使用してテキストが分割され、基本フォームに単語が減らされます。

MicrosoftLanguageTokenizer

言語固有のルールを使用してテキストが分割されます。

NamedEntityRecognitionSkill

エンティティ認識という名前のテキスト分析。 このスキルは非推奨です。 EntityRecognitionSkillhttps://docs.microsoft.com/azure/search/cognitive-search-skill-named-entity-recognition

NGramTokenFilter

指定サイズの n グラムが生成されます。 このトークン フィルターは、Apache Lucene を使用して実装されます。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenFilter.html

NGramTokenFilterV2

指定サイズの n グラムが生成されます。 このトークン フィルターは、Apache Lucene を使用して実装されます。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenFilter.html

NGramTokenizer

入力が指定サイズの n グラムにトークン化されます。 このトークナイザーは、Apache Lucene を使用して実装されます。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenizer.html

OcrSkill

イメージ ファイルからテキストを抽出するスキル。 https://docs.microsoft.com/azure/search/cognitive-search-skill-ocr

OutputFieldMappingEntry

スキルの出力フィールド マッピング。 https://docs.microsoft.com/rest/api/searchservice/naming-rules

PathHierarchyTokenizer

パスのような階層のトークナイザー。 このトークナイザーは、Apache Lucene を使用して実装されます。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/path/PathHierarchyTokenizer.html

PathHierarchyTokenizerV2

パスのような階層のトークナイザー。 このトークナイザーは、Apache Lucene を使用して実装されます。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/path/PathHierarchyTokenizer.html

PatternAnalyzer

正規表現のパターンを使用してテキストを用語に柔軟に分割します。 このアナライザーは、Apache Lucene を使用して実装されます。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/PatternAnalyzer.html

PatternCaptureTokenFilter

Java 正規表現を使用して、1 つ以上のパターンでキャプチャ グループごとに 1 つずつ、複数のトークンを出力します。 このトークン フィルターは、Apache Lucene を使用して実装されます。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/pattern/PatternCaptureGroupTokenFilter.html

PatternReplaceCharFilter

入力文字列内の文字を置き換える文字フィルター。 正規表現を使用して維持する文字のシーケンスが識別され、置換パターンを使用して置換する文字が識別されます。 たとえば、入力テキスト "aa bb aa bb"、パターン "(aa)\s+(bb)"、置換後の "$1#$2" を指定すると、結果は "aa#bb aa#bb" になります。 この文字フィルターは、Apache Lucene を使用して実装されます。 https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/pattern/PatternReplaceCharFilter.html

PatternReplaceTokenFilter

入力文字列内の文字を置き換える文字フィルター。 正規表現を使用して維持する文字のシーケンスが識別され、置換パターンを使用して置換する文字が識別されます。 たとえば、入力テキスト "aa bb aa bb"、パターン "(aa)\s+(bb)"、置換後の "$1#$2" を指定すると、結果は "aa#bb aa#bb" になります。 このトークン フィルターは、Apache Lucene を使用して実装されます。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/pattern/PatternReplaceFilter.html

PatternTokenizer

正規表現パターン マッチングを使用して個別のトークンを構築するトークナイザー。 このトークナイザーは、Apache Lucene を使用して実装されます。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/pattern/PatternTokenizer.html

PhoneticTokenFilter

音声一致用のトークンが作成されます。 このトークン フィルターは、Apache Lucene を使用して実装されます。 https://lucene.apache.org/core/4_10_3/analyzers-phonetic/org/apache/lucene/analysis/phonetic/package-tree.html

RangeFacetResult<T>

特定の範囲内にあるフィールド値を持つドキュメントの数を報告する範囲ファセット クエリ結果の単一のバケット。

ResourceCounter

リソースの使用量とクォータを表します。

ScoringFunction

ランク付け中にドキュメント スコアを変更できる関数の抽象基本クラス。 https://docs.microsoft.com/rest/api/searchservice/Add-scoring-profiles-to-a-search-index

ScoringParameter

スコアリング関数 (referencePointParameter など) で使用されるパラメーター値を表します。

ScoringProfile

検索クエリのスコアリングに影響を与える検索インデックスのパラメーターを定義します。 https://docs.microsoft.com/rest/api/searchservice/Add-scoring-profiles-to-a-search-index

SearchContinuationToken

検索結果のフェッチを続行するために必要な状態をカプセル化します。 これは、Azure Cognitive Searchが 1 つの応答で検索要求を満たすことができない場合に必要です。

SearchParameters

フィルター処理、並べ替え、ファセット、ページング、およびその他の検索クエリ動作のパラメーター。

SearchRequestOptions

一連の操作の追加パラメーター。

SearchResult<T>

検索クエリによって検出されたドキュメントと、関連するメタデータが含まれます。

SentimentSkill

テキスト分析の肯定的-否定的な感情分析。0 から 1 の範囲の浮動小数点値としてスコア付けされます。 https://docs.microsoft.com/azure/search/cognitive-search-skill-sentiment

SerializePropertyNamesAsCamelCaseAttribute

検索インデックスのフィールド名と一致させるために、モデル型のパブリック プロパティをキャメル ケースとしてシリアル化する必要があることを示します。

ServiceCounters

サービス レベルのリソース カウンターとクォータを表します。

ServiceLimits

さまざまなサービス レベルの制限を表します。

ServiceStatistics

サービス統計の取得要求からの応答。 成功した場合は、サービス レベルのカウンターと制限が含まれます。

ShaperSkill

出力を再作成するためのスキル。 複合フィールド (マルチパート フィールドとも呼ばれます) をサポートする複合型を作成します。 https://docs.microsoft.com/azure/search/cognitive-search-skill-shaper

ShingleTokenFilter

トークンの組み合わせが 1 つのトークンとして作成されます。 このトークン フィルターは、Apache Lucene を使用して実装されます。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/shingle/ShingleFilter.html

Skill

スキルの抽象基本クラス。 https://docs.microsoft.com/azure/search/cognitive-search-predefined-skills

Skillset

スキルの一覧。 https://docs.microsoft.com/azure/search/cognitive-search-tutorial-blob

SkillsetListResult

リスト スキルセット要求からの応答。 成功した場合は、すべてのスキルセットの完全な定義が含まれます。

SnowballTokenFilter

Snowball で生成されたステマーを使用して単語をステミングするフィルター。 このトークン フィルターは、Apache Lucene を使用して実装されます。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/snowball/SnowballFilter.html

SoftDeleteColumnDeletionDetectionPolicy

論理的な削除戦略を実装するデータ削除検出ポリシーを定義します。 指定された "論理的な削除" 列の値に基づいて項目を削除するかどうかを決定します。

SplitSkill

文字列をテキストのチャンクに分割するスキル。 https://docs.microsoft.com/azure/search/cognitive-search-skill-textsplit

SqlIntegratedChangeTrackingPolicy

Azure SQL Database の統合Change Tracking機能を使用して変更をキャプチャするデータ変更検出ポリシーを定義します。

StandardAnalyzer

Standard Apache Lucene アナライザー。標準トークナイザー、小文字フィルター、および停止フィルターで構成されます。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/StandardAnalyzer.html

StandardTokenizer

Unicode テキスト セグメント化ルールに従ってテキストを分割します。 このトークナイザーは、Apache Lucene を使用して実装されます。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/StandardTokenizer.html

StandardTokenizerV2

Unicode テキスト セグメント化ルールに従ってテキストを分割します。 このトークナイザーは、Apache Lucene を使用して実装されます。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/StandardTokenizer.html

StemmerOverrideTokenFilter

ユーザー辞書ベースのステミングを使用して、他のステミング フィルターをオーバーライドする機能を提供します。 辞書で語幹を付けた用語はキーワードとしてマークされるため、チェーンの下のステマーで語幹を付けなくなります。 すべてのステミング フィルターの前に配置する必要があります。 このトークン フィルターは、Apache Lucene を使用して実装されます。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/StemmerOverrideFilter.html

StemmerTokenFilter

言語固有のステミング フィルター。 このトークン フィルターは、Apache Lucene を使用して実装されます。 https://docs.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#TokenFilters

StopAnalyzer

テキストを文字以外で分割します。小文字とストップワードのトークン フィルターを適用します。 このアナライザーは、Apache Lucene を使用して実装されます。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopAnalyzer.html

StopwordsTokenFilter

トークン ストリームからストップワードが削除されます。 このトークン フィルターは、Apache Lucene を使用して実装されます。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopFilter.html

Suggester

Suggest API をインデックス内のフィールドのグループに適用する方法を定義します。

SuggestParameters

フィルター処理、並べ替え、あいまい一致、およびその他の候補のクエリ動作のパラメーター。

SuggestResult<T>

提案クエリによって検出されたドキュメントと、関連付けられているメタデータを含む結果。

SynonymMap

シノニム マップ定義を表します。

SynonymMapListResult

List SynonymMaps 要求からの応答。 成功した場合は、すべてのシノニム マップの完全な定義が含まれます。

SynonymTokenFilter

トークン ストリーム内の単一または複数単語のシノニムと一致します。 このトークン フィルターは、Apache Lucene を使用して実装されます。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/synonym/SynonymFilter.html

TagScoringFunction

特定のタグの一覧に一致する文字列値を持つドキュメントのスコアを向上させる関数を定義します。 https://docs.microsoft.com/rest/api/searchservice/Add-scoring-profiles-to-a-search-index

TagScoringParameters

タグ スコアリング関数にパラメーター値を提供します。

TextTranslationSkill

ある言語から別の言語にテキストを翻訳するスキル。 https://docs.microsoft.com/azure/search/cognitive-search-skill-text-translation

TextWeights

検索クエリで一致がスコアリングを向上させるインデックス フィールドの重みを定義します。

TokenFilter

トークン フィルターの抽象基本クラス。 https://docs.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search

TokenInfo

アナライザーによって返されるトークンに関する情報。

Tokenizer

トークナイザーの抽象基本クラス。 https://docs.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search

TruncateTokenFilter

用語を特定の長さに切り捨てます。 このトークン フィルターは、Apache Lucene を使用して実装されます。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/TruncateTokenFilter.html

UaxUrlEmailTokenizer

URL と電子メールが 1 つのトークンとしてトークン化されます。 このトークナイザーは、Apache Lucene を使用して実装されます。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/UAX29URLEmailTokenizer.html

UniqueTokenFilter

前のトークンと同じテキストのトークンが除外されます。 このトークン フィルターは、Apache Lucene を使用して実装されます。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/RemoveDuplicatesTokenFilter.html

ValueFacetResult<T>

特定の間隔内または特定の値を持つフィールドを持つドキュメントの数を報告する、単純または間隔のファセット クエリ結果の 1 つのバケット。

WebApiSkill

Web API エンドポイントを呼び出すことができるスキル。カスタム コードを呼び出すことでスキルセットを拡張できます。 https://docs.microsoft.com/azure/search/cognitive-search-custom-skill-web-api

WordDelimiterTokenFilter

単語がサブ単語に分割され、部分語のグループに対してオプションの変換が実行されます。 このトークン フィルターは、Apache Lucene を使用して実装されます。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/WordDelimiterFilter.html

構造体

AnalyzerName

Azure Cognitive Searchでサポートされているすべてのテキスト アナライザーの名前を定義します。 https://docs.microsoft.com/rest/api/searchservice/Language-support

BlobExtractionMode

BLOB ストレージ インデクサーによってインデックスを作成する BLOB の部分を定義します。 https://docs.microsoft.com/azure/search/search-howto-indexing-azure-blob-storage

CharFilterName

Azure Cognitive Searchでサポートされているすべての文字フィルターの名前を定義します。 https://docs.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search

DataSourceType

データソースの型を定義します。

DataType

検索インデックス内のフィールドのデータ型を定義します。

NamedEntityRecognitionSkillLanguage

NamedEntityRecognitionSkill でサポートされている言語コードの形式を定義します。

RegexFlags

パターン アナライザーとパターン トークナイザーでの正規表現の使用方法を制御するために組み合わせることができるフラグを定義します。 http://docs.oracle.com/javase/6/docs/api/java/util/regex/Pattern.html#field_summary

TokenFilterName

Azure Cognitive Searchでサポートされているすべてのトークン フィルターの名前を定義します。 https://docs.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search

TokenizerName

Azure Cognitive Searchでサポートされているすべてのトークナイザーの名前を定義します。 https://docs.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search

インターフェイス

IResourceWithETag

このインターフェイスを実装するモデル クラスは、サーバー上の ETag バージョンで永続化されるリソースを表します。

列挙型

AutocompleteMode

AutocompleteMode の値を定義します。

CjkBigramTokenFilterScripts

CjkBigramTokenFilterScripts の値を定義します。

EdgeNGramTokenFilterSide

EdgeNGramTokenFilterSide の値を定義します。

EntityCategory

EntityCategory の値を定義します。

EntityRecognitionSkillLanguage

EntityRecognitionSkillLanguage の値を定義します。

FacetType

ファセット クエリ結果の種類を指定します。

ImageAnalysisSkillLanguage

ImageAnalysisSkillLanguage の値を定義します。

ImageDetail

ImageDetail の値を定義します。

IndexActionType

IndexActionType の値を定義します。

IndexerExecutionStatus

IndexerExecutionStatus の値を定義します。

IndexerStatus

IndexerStatus の値を定義します。

KeyPhraseExtractionSkillLanguage

KeyPhraseExtractionSkillLanguage の値を定義します。

MicrosoftStemmingTokenizerLanguage

MicrosoftStemmingTokenizerLanguage の値を定義します。

MicrosoftTokenizerLanguage

MicrosoftTokenizerLanguage の値を定義します。

NamedEntityCategory

NamedEntityCategory の値を定義します。 これは非推奨です。代わりに を使用してくださいEntityCategory

OcrSkillLanguage

OcrSkillLanguage の値を定義します。

PhoneticEncoder

PhoneticEncoder の値を定義します。

QueryType

QueryType の値を定義します。

ScoringFunctionAggregation

ScoringFunctionAggregation の値を定義します。

ScoringFunctionInterpolation

ScoringFunctionInterpolation の値を定義します。

SearchMode

SearchMode の値を定義します。

SentimentSkillLanguage

SentimentSkillLanguage の値を定義します。

SnowballTokenFilterLanguage

SnowballTokenFilterLanguage の値を定義します。

SplitSkillLanguage

SplitSkillLanguage の値を定義します。

StemmerTokenFilterLanguage

StemmerTokenFilterLanguage の値を定義します。

StopwordsList

StopwordsList の値を定義します。

TextExtractionAlgorithm

TextExtractionAlgorithm の値を定義します。

TextSplitMode

TextSplitMode の値を定義します。

TextTranslationSkillLanguage

TextTranslationSkillLanguage の値を定義します。

TokenCharacterKind

TokenCharacterKind の値を定義します。

VisualFeature

VisualFeature の値を定義します。