Novembre 2017

Volume 33 Numero 11

Il presente articolo è stato tradotto automaticamente.

Servizi cognitivi - Dal testo all'analisi mirata del sentiment con Servizi cognitivi

Da Sahu Ashish

Si sono evoluti negli secoli molti lingue e, di conseguenza, tendono a contenere regole complesse per affettivi espressione regolare. Come esperti di lingue, è in genere si basano su learning e diverse convenzioni di social networking master una o più lingue e usarli per esprimere effettuata in situazioni diverse. La qualità e procedurali vengono riflesse nelle risposte che si lascia in varie impostazioni, tra cui recensioni dei prodotti, le risposte al sondaggio in formato online e offline e così via. Essi seguono le stesse regole della lingua e fornire una possibilità utili per testare e spostare i modelli di machine learning che funzionano su espressione lingua.

Oggi, social network svolgono un ruolo ottimo nella determinazione parere più diffusi. Si partecipano alle discussioni su quasi tutti gli elementi, express nostri idee e accettare o non d'accordo con l'altro per tutto il mondo per vedere. Queste esperienze spill anche nel nostro abitudini di acquisto e spesso si lascia il nostro viste sulle operazioni da acquistare e sui servizi che effettuato un tentativo sotto forma di revisioni.

Poiché è fisicamente non è possibile visualizzare e valutare le operazioni che si desidera acquistare online, ciò che resta spesso a opinioni di altri utenti di valutare come durevoli o affidabile potrebbero essere. Questi controlli potrebbero essere associati stelle di classificazione che offrono una comodità minimo per l'ordinamento al loro interno. Tuttavia, la classificazione a stelle non fornisce un quadro preciso dell'esperienza di un utente con un prodotto o la qualità del prodotto, in alcuni casi in cui si appena scontenti che un elemento fornita in un secondo momento previsto.

Rimangono solo un'opzione, per leggere le recensioni esistente ed effettuare un'ipotesi ipotesi sulle novità valida e non valida sul prodotto in questione. Che consente, ma è richiesto molto tempo e inefficiente. A questo punto, il testo di Analitica e le API di analisi linguistica, parte di Microsoft Services cognitivi, può essere utile però.

Come altri servizi cognitivi, il testo Analitica e le API di analisi linguistica sono servizi ospitati. Non vi è alcun software, è necessario scaricare, configurare o eseguire il training prima di iniziare a utilizzare questi intelligence artificiale (AI)-API per straordinarie funzionalità basate su.

L'API Analitica del testo è in grado di dedurre informazioni dettagliate, ad esempio la lingua del testo, le frasi chiave vengono trattate e il sentiment espressi nel testo. L'API di analisi linguistica, al contrario, consente la conoscenza dei concetti linguistici e le azioni nel testo in formato libero. Esegue di parti del discorso (POS) tag, la suddivisione in token e frase separazione, tra l'altro. È possibile utilizzare questa API per estrarre informazioni da feedback dei clienti e per comprendere lo scopo di utenti e la struttura del testo.

In questo articolo verrà illustrato come le API di lavoro e gli scenari in cui possono essere utilizzati per generare informazioni dettagliate da diverse forme di testo durante ogni giorno.

Qual è il testo Analitica?

L'API di Analitica di testo è una suite di servizi creati con Azure Machine Learning. Al momento della redazione del presente documento, è possibile utilizzare le seguenti operazioni API per eseguire le azioni indicate in precedenza:

  • Rilevamento lingua determina la lingua del testo inviata all'API tra le lingue supportate 120.
  • Frasi chiave consente di trovare frasi chiave nel testo di input.
  • Sentiment rileva la valutazione del testo, restituendo un valore numerico compreso tra 0 e 1, dove un punteggio più alto indica il grado di valutazione positiva ha.
  • Rilevare argomenti individua argomenti o frasi da una raccolta di testo in un'operazione batch. Questa operazione è contrassegnate come deprecate e non verrà trattata nell'articolo.

L'API Analitica del testo è pre-in grado di eseguire queste operazioni e non deve necessariamente i dati di training. È possibile gestire la maggior parte delle revisioni nei portali più acquisti. Per comprendere meglio le funzionalità dell'API testo Analitica, esaminare la revisione di esempio seguente:

"Il telefono ha una grande batteria. La visualizzazione è acuto e brillante. Ma l'archivio non dispone di applicazioni che è necessario."

Questo estratto riflette l'esperienza dell'acquirente, una con un telefono. Di seguito eseguire questo esempio tramite le diverse operazioni dell'API e vedere cosa attiva.

Inoltre, è possibile utilizzare qualsiasi utilità che scelto (ad esempio, Fiddler, Postman o Curl) per questi test per visualizzare i risultati. È inoltre possibile utilizzare Console API di test disponibili nella documentazione di riferimento dell'API. Tuttavia, esistono alcuni aspetti, che è necessario conoscere prima di testare l'esecuzione di queste API:

  1. È necessaria una chiave di sottoscrizione. Se non si dispone di una sottoscrizione di Azure, è possibile ottenere una chiave di prova da bit.ly/2eLG8OT.
  2. L'API prevede di ricevere il record di testo nel formato seguente:
{
  "documents": [
    {
      "language": "string",
      "id": "string",
      "text": "string"
    }
  ]
}

Questo formato è valida per le frasi chiave e le operazioni di valutazione. Tuttavia, è necessario rimuovere il campo "language" per le chiamate all'operazione di linguaggio rileva.

Iniziare con una semplice verifica per determinare la lingua del testo di esempio e il corpo della richiesta verrà formattato come segue:

{
  "documents": [
    {
      "id": "1",
      "text": "This phone has a great battery. The display is sharp and bright. 
        But the store does not have the apps I need."
    }
  ]
}

Utilizzando l'utilità Curl ed ecco come appare la richiesta:

curl -v -X POST "https://westus.api.cognitive.microsoft.com/text/analytics/v2.0/languages"
-H "Content-Type: application/json"
-H "Ocp-Apim-Subscription-Key: my-trial-key"

--data-ascii "{
  "documents": [
    {
      "id": "1",
      "text": "This phone has a great battery. The display is sharp and bright. 
        But the store does not have the apps I need."
    }
  ]
}"

E viene visualizzato il risultato viene visualizzato dopo la richiesta di inserire figura 1.

Figura 1, le lingue del risultato

{
  "documents": [
    {
      "id": "1",
      "detectedLanguages": [
        {
          "name": "English",
          "iso6391Name": "en",
          "score": 1
        }
      ]
    }
  ],
  "errors": []
}

Come si può notare, il risultato è una risposta con punteggio e rilevata inglese come lingua del record di testo inviato. Sono provare una lingua diversa per verificarne il funzionamento.

È quindi verrà eseguito lo stesso record tramite l'endpoint di una frase chiave. È necessario modificare il comando Curl con endpoint aggiornato e il corpo della richiesta come segue:

curl -v --silent -X POST "https://westus.api.cognitive.microsoft.com/text/analytics/v2.0/keyPhrases"
-H "Content-Type: application/json" 
-H "Ocp-Apim-Subscription-Key: my-trial-key"
--data-ascii '{ 
  "documents": [
  { "language": "en",
    "id": "1",
    "text": "This phone has a great battery. The display is sharp and bright. 
      But the store does not have the apps I need."
  } 
  ] 
}'

La risposta viene visualizzata figura 2.

Figura 2, la chiave frasi risultato

{
  "documents": [
    {
      "keyPhrases": [
        "phone",
        "great battery",
        "display",
        "store",
        "apps"
      ],
      "id": "1"
    }
  ],
  "errors": []
}

Come si può notare, l'endpoint di frasi chiave ha rilevato frasi appropriate dalla revisione di esempio.

Ora vediamo cosa indica la revisione sulla scala di positività. Verrà eseguito lo stesso testo tramite l'endpoint di valutazione e vedere ciò che viene restituita. Ecco il comando Curl:

curl -v --silent -X POST "https://westus.api.cognitive.microsoft.com/text/
  analytics/v2.0/sentiment"
-H "Content-Type: application/json" 
-H "Ocp-Apim-Subscription-Key: my-trial-key"
--data-ascii '{ 
  "documents": [
  { "language": "en",
    "id": "1",
    "text": "This phone has a great battery. The display is sharp and bright. 
      But the store does not have the apps I need."
  } 
  ] 
}'

E questa volta il risultato è:

{
  "documents": [
    {
      "score": 0.770478801630976,
      "id": "1"
    }
  ],
  "errors": []
}

Il risultato è più semplice in questo caso, e il punteggio di valutazione per la revisione è.77, che, in una scala da 0 a 1 è % 77. Ciò indica un sentiment principalmente positivo per il testo, che è possibile dedurre dal testo.

Ora che è stato eseguito questa revisione del testo con tutte le operazioni disponibili, verrà combinare in modo da visualizzare il risultato complessivo:

  • Testo Il telefono è un'ottima batteria. La visualizzazione è acuto e brillante. Ma l'archivio non ha le app, che è necessario.
  • Lingua: Inglese
  • Frasi chiave: telefono, prolungata della batteria, visualizzazione, store, App
  • Valutazione: percentuale 77

Questo esperimento illustra operazioni che è possibile eseguire il servizio cognitivi Analitica del testo per le revisioni di testo, le risposte al sondaggio e cliente di input. Tuttavia, in combinazione con i servizi di analisi linguistica, sono distillare anche informazioni dettagliate.

Esaminare l'analisi linguistica: Qual è la differenza?

L'API di Analitica testo utilizza un modello con training preliminare per l'analisi di testo per rilevare le informazioni quali lingua, frasi chiave e i rispettivi. Al contrario, l'API di analisi linguistica utilizza gli strumenti avanzati per l'analisi linguistica per elaborare gli input di testo e consente di comprendere la struttura della frase. Tali conoscenze quindi utilizzabile per estrarre informazioni dai record di testo, interpretare i comandi dell'utente e di elaborare il testo in formato libero da qualsiasi origine.

Non sono una fase, pertanto potrà usare il processo di spiegare i vantaggi e svantaggi di questo servizio a un utente. In questo articolo verrà semplicemente riguardano le nozioni fondamentali di questo servizio e quindi tornare allo scopo originale di questo articolo, che consiste nel generare informazioni dettagliate di approfondimento e significativi dall'input di testo.

L'API di analisi linguistica viene utilizzato il concetto di analizzatori per comprendere la struttura dei record di testo. Attualmente, sono supportati tre tipi:

  • Token
  • Tag POS
  • Struttura ad albero di linea

Gli analizzatori provengono da Treebank il Penn, ovvero la raccolta di annotazioni testo analizzato che consente l'API di analisi linguistica per capire se una determinata parola in un testo di input è un verbo o un sostantivo. Ad esempio, "mi piace Bing!" e "Consenti bing per è" utilizzare la parola Bing capacità diversi.

Di seguito è possibile usare questo esempio per comprendere il funzionamento di rilevarli analisi linguistica. Proprio come con testo Analitica, è necessario un codice di valutazione se non si dispone di una sottoscrizione di Azure.

Dopo aver creato la chiave, avviare semplicemente lo strumento ideale per inviare una richiesta all'API di analisi linguistica. Sono disponibili due operazioni con questa API:

  • Elencare gli analizzatori restituito l'elenco di analizzatori di analisi del testo per i token, POS tag e una struttura ad albero di linea.
  • Analizzare testo analizza gli input di testo è fornire usando gli analizzatori Inserisci nella richiesta.

Figura 3 Mostra ciò che restituisce una semplice richiesta GET all'endpoint di tipo elenco Analyzer.

Figura 3, il risultato di una richiesta GET semplice per l'Endpoint di Analizzatore elenco

[
  {
    "id": "4fa79af1-f22c-408d-98bb-b7d7aeef7f04",
    "languages": [
      "en"
    ],
    "kind": "POS_Tags",
    "specification": "PennTreebank3",
    "implementation": "cmm"
  },
  {
    "id": "22a6b758-420f-4745-8a3c-46835a67c0d2",
    "languages": [
      "en"
    ],
    "kind": "Constituency_Tree",
    "specification": "PennTreebank3",
    "implementation": "SplitMerge"
  },
  {
    "id": "08ea174b-bfdb-4e64-987e-602f85da7f72",
    "languages": [
      "en"
    ],
    "kind": "Tokens",
    "specification": "PennTreebank3",
    "implementation": "regexes"
  }
]

Si utilizzerà gli analizzatori indicati in precedenza per analizzare il testo: "Mi piace Bing! Consenti Bing questo,"la formattazione del corpo della richiesta come indicato di seguito:

{
  "language" : "en",
  "analyzerIds" : ["4fa79af1-f22c-408d-98bb-b7d7aeef7f04", 
    "22a6b758-420f-4745-8a3c-46835a67c0d2", 
    "08ea174b-bfdb-4e64-987e-602f85da7f72"],
  "text" : "I love Bing! Let me bing this for you" 
}

Ecco il comando Curl:

curl -v --silent -X POST https://westus.api.cognitive.microsoft.com/ 
  linguistics/v1.0/analyze
-H "Content-Type: application/json" 
-H "Ocp-Apim-Subscription-Key: my-trial-key" 
--data-ascii ' {
  "language" : "en",
  "analyzerIds" : ["4fa79af1-f22c-408d-98bb-b7d7aeef7f04", 
    "22a6b758-420f-4745-8a3c-46835a67c0d2", 
    "08ea174b-bfdb-4e64-987e-602f85da7f72"],
  "text" : "I love Bing! Let me bing this for you" 
}'

La risposta a questa richiesta viene visualizzata figura 4.

Figura 4, l'analisi del testo di esempio

[
  {
    "analyzerId":"4fa79af1-f22c-408d-98bb-b7d7aeef7f04",
    "result":[
      [
        "PRP",
        "VBP",
        "VBG",
        "."
      ],
      [
        "VB",
        "PRP",
        "JJ",
        "DT",
        "IN",
        "PRP"
      ]
    ]
  },
  {
    "analyzerId":"22a6b758-420f-4745-8a3c-46835a67c0d2",
    "result":[
      "(TOP (S (NP (PRP I)) (VP (VBP love) (NNP Bing)) (. !)))",
      "(VP (VBD Let) (S (NP (PRP me)) (VP (VBG bing) (NP (DT this)) 
      (PP (IN for) (NP (PRP you))))))"
    ]
  },
  {
    "analyzerId":"08ea174b-bfdb-4e64-987e-602f85da7f72",
    "result":[
        {
          "Len":12,
          "Offset":0,
          "Tokens":[
            {
              "Len":1,
              "NormalizedToken":"I",
              "Offset":0,
              "RawToken":"I"
            },
            {
              "Len":4,
              "NormalizedToken":"love",
              "Offset":2,
              "RawToken":"love"
            },
            {
              "Len":4,
              "NormalizedToken":"Bing",
              "Offset":7,
              "RawToken":"Bing"
            },
            {
              "Len":1,
              "NormalizedToken":"!",
              "Offset":11,
              "RawToken":"!"
            }
          ]
        },
      {
        "Len":24,
        "Offset":13,
        "Tokens":[
          {
            "Len":3,
            "NormalizedToken":"Let",
            "Offset":13,
            "RawToken":"Let"
          },
          {
            "Len":2,
            "NormalizedToken":"me",
            "Offset":17,
            "RawToken":"me"
          },
          {
            "Len":4,
            "NormalizedToken":"bing",
            "Offset":20,
            "RawToken":"bing"
          },
          {
            "Len":4,
            "NormalizedToken":"this",
            "Offset":25,
            "RawToken":"this"
          },
          {
            "Len":3,
            "NormalizedToken":"for",
            "Offset":30,
            "RawToken":"for"
          },
          {
            "Len":3,
            "NormalizedToken":"you",
            "Offset":34,
            "RawToken":"you"
          }
        ]
      }
    ]
  }
]

Il risultato verrà ripartito in base a cui gli analizzatori inviati nella richiesta - tag POS, struttura ad albero di linea e i token in questo esempio.

Come si può notare, POS tag sono tag solo per ognuna delle parole nel testo di input, mentre l'analizzatore di linea albero restituisce la struttura ad albero del testo di input contrassegnata con tag e le parole. L'analizzatore di token restituisce il risultato più leggibile in cui sono incluse le informazioni su ognuna delle parole di input di testo con la posizione del record.

Per questo articolo, utilizzerò gli analizzatori di token e linea albero per inserire un'interruzione delle revisioni del testo nel record separati in base alle informazioni di frase separazione e le parole insieme.

Se si desidera per altre informazioni sull'API di analisi linguistica e concetti correlati, si consiglia di leggere la documentazione completa di API disponibile all'indirizzo bit.ly/2eTc2Nj.

Esaminiamo tornare esempio originale utilizzato per l'API di Analitica testo: "Il telefono ha una grande batteria. La visualizzazione è acuto e brillante ma l'archivio non dispone di App che è necessario".

È una modifica meno evidente nell'esempio questa volta ho rimosso il punto alla fine della seconda frase dell'esempio originale e utilizzata la parola insieme "ma" to combinarla con la terza frase. Si noterà che è necessario uno scopo a tale scopo.

Verrà ora chiamare l'operazione di analisi di testo dell'API di analisi linguistica con il corpo della richiesta seguente:

{
  "language" : "en",
  "analyzerIds" : ["22a6b758-420f-4745-8a3c-46835a67c0d2", "08ea174b-bfdb-4e64-987e-602f85da7f72"],
  "text" : "This phone has a great battery. 
    The display is sharp and bright but the store does not have the apps I need." 
}

Si invia la richiesta con la struttura ad albero di linea e solo gli analizzatori di token. Figura 5 viene mostrato il risultato.

Figura 5 tramite l'analisi testo operazione dell'API di analisi linguistica

[
  {
    "analyzerId": "22a6b758-420f-4745-8a3c-46835a67c0d2",
    "result": [
      "(TOP (S (NP (DT This) (NN phone)) (VP (VBZ has) 
        (NP (DT a) (JJ great) (NN battery))) (. .)))",
      "(TOP (S (S (NP (DT The) (NN display)) (VP (VBZ is) (ADJP 
        (JJ sharp) (CC and) (JJ bright)))) (CC but) (S 
        (NP (DT the) (NN store)) (VP (VBZ does) (RB not) 
        (VP (VB have) (NP (NP (DT the) (NNS apps)) (SBAR (S 
        (NP (PRP I)) (VP (VBP need)))))))) (. .)))"
    ]
  },
  {
    "analyzerId": "08ea174b-bfdb-4e64-987e-602f85da7f72",
    "result": [
      {
        "Len": 31,
        "Offset": 0,
        "Tokens": [
          {
            "Len": 4,
            "NormalizedToken": "This",
            "Offset": 0,
            "RawToken": "This"
          },
          {
            "Len": 5,
            "NormalizedToken": "phone",
            "Offset": 5,
            "RawToken": "phone"
          },
          {
            "Len": 3,
            "NormalizedToken": "has",
            "Offset": 11,
            "RawToken": "has"
          },
          {
            "Len": 1,
            "NormalizedToken": "a",
            "Offset": 15,
            "RawToken": "a"
          },
          {
            "Len": 5,
            "NormalizedToken": "great",
            "Offset": 17,
            "RawToken": "great"
          },
          {
            "Len": 7,
            "NormalizedToken": "battery",
            "Offset": 23,
            "RawToken": "battery"
          },
          {
            "Len": 1,
            "NormalizedToken": ".",
            "Offset": 30,
            "RawToken": "."
          }
        ]
      },
      {
        "Len": 76,
        "Offset": 32,
        "Tokens": [
          {
            "Len": 3,
            "NormalizedToken": "The",
            "Offset": 32,
            "RawToken": "The"
          },
          {
            "Len": 7,
            "NormalizedToken": "display",
            "Offset": 36,
            "RawToken": "display"
          },
          {
            "Len": 2,
            "NormalizedToken": "is",
            "Offset": 44,
            "RawToken": "is"
          },
          {
            "Len": 5,
            "NormalizedToken": "sharp",
            "Offset": 47,
            "RawToken": "sharp"
          },
          {
            "Len": 3,
            "NormalizedToken": "and",
            "Offset": 53,
            "RawToken": "and"
          },
          {
            "Len": 6,
            "NormalizedToken": "bright",
            "Offset": 57,
            "RawToken": "bright"
          },
          {
            "Len": 3,
            "NormalizedToken": "but",
            "Offset": 64,
            "RawToken": "but"
          },
          {
            "Len": 3,
            "NormalizedToken": "the",
            "Offset": 68,
            "RawToken": "the"
          },
          {
            "Len": 5,
            "NormalizedToken": "store",
            "Offset": 72,
            "RawToken": "store"
          },
          {
            "Len": 4,
            "NormalizedToken": "does",
            "Offset": 78,
            "RawToken": "does"
          },
          {
            "Len": 3,
            "NormalizedToken": "not",
            "Offset": 83,
            "RawToken": "not"
          },
          {
            "Len": 4,
            "NormalizedToken": "have",
            "Offset": 87,
            "RawToken": "have"
          },
          {
            "Len": 3,
            "NormalizedToken": "the",
            "Offset": 92,
            "RawToken": "the"
          },
          {
            "Len": 4,
            "NormalizedToken": "apps",
            "Offset": 96,
            "RawToken": "apps"
          },
          {
            "Len": 1,
            "NormalizedToken": "I",
            "Offset": 101,
            "RawToken": "I"
          },
          {
            "Len": 4,
            "NormalizedToken": "need",
            "Offset": 103,
            "RawToken": "need"
          },
          {
            "Len": 1,
            "NormalizedToken": ".",
            "Offset": 107,
            "RawToken": "."
          }
        ]
      }
    ]
  }

Come si può notare, l'analizzatore di struttura ad albero linea ha interrotto il record di testo a due frasi e indicata la parola insieme "ma" con il tag CC nel risultato. Come già indicato, I intenzionalmente eliminato il carattere punto alla fine della seconda frase nel testo originale per evidenziare la funzionalità dell'API di analisi linguistica.

Integrazione

Questo esperimento little viene illustrato un modo affidabile per l'esempio originale viene suddivisa tre frasi separate, ora è possibile elaborare tramite l'API di Analitica di testo per ottenere maggiori informazioni sulle relative al cliente di input. Si potrebbe pensare che semplice stringa durante l'analisi e la suddivisione fornirà un risultato simile non in linea, ma che è così semplice - richiedere my word a tale scopo.

A questo punto, nello stesso modo, sono in grado eseguire l'output dell'API di analisi linguistica e, con una routine di modifica di stringhe semplice, in qualsiasi linguaggio di programmazione, separare la revisione in singole parti. Nell'esempio originale possa essere suddivisi in tre parti seguenti:

  • Il telefono è un'ottima batteria
  • La visualizzazione è acuto e brillante
  • L'archivio non dispone di App che è necessario

Consente l'esecuzione di queste tre parti singolarmente utilizzando l'API Analitica del testo e ciò che viene restituita e come in questo modo è più logico della revisione. Verrà ora Usa la frase chiave e le operazioni di valutazione dell'API Analitica di testo e visualizzare l'output di questa API trasformata in un'analisi di destinazione potente di ciascun riflesse nel testo di input.

È inoltre necessario rimuovere i segni di punteggiatura e qualsiasi congiunzioni per ottenere l'analisi di best. Dopo aver modificato lo script Curl per passare uno alla volta i token prima all'endpoint di frasi chiave e quindi all'endpoint di valutazione. Figura 6 Mostra il risultato.

Figura 6 utilizzando la Analitica testo API nell'Output dell'analisi linguistica API

{
  "documents": [
    {
      "keyPhrases": [
        "great battery"
      ],
      "id": "1"
    }
  ],
  "errors": []
}
{
  "documents": [
    {
      "score": 0.814330127882407,
      "id": "1"
    }
  ],
  "errors": []
}
{
  "documents": [
    {
      "keyPhrases": [
        "display"
      ],
      "id": "1"
    }
  ],
  "errors": []
}
{
  "documents": [
    {
      "score": 0.94089591967051,
      "id": "1"
    }
  ],
  "errors": []
}
{
  "documents": [
    {
      "keyPhrases": [
        "store",
        "apps"
      ],
      "id": "1"
    }
  ],
  "errors": []
}
{
  "documents": [
    {
      "score": 0.255424793209646,
      "id": "1"
    }
  ],
  "errors": []
}

Se esegue la compilazione di questi risultati in un formato adatto umane, ecco aspetto seguente:

  • Il telefono è una frase grande batteryKey: batterySentiment grande: 81%
  • La visualizzazione è frase realistici e brightKey: displaySentiment: percentuale di 94
  • L'archivio non dispone di App si needKey frase: store, appsSentiment: 25%

Quando si parla di API Analitica di testo più indietro in questo articolo, si è stata eseguita l'analisi completa tramite l'API e visto che la revisione aveva una valutazione positiva ha 77 percento. Tuttavia, che esegue la revisione con l'API linguistico, interromperla down i singoli token e quindi elaborarli con l'API di Analitica testo fornisce una valutazione Conté dei singoli aspetti di telefono in questione e l'analisi di valutazione di destinazione per ogni di loro.

È inoltre chiarire che una selezione di applicazioni migliorata per il telefono potrebbe portare il positività complessiva di questa revisione molto più elevata rispetto alla percentuale 77 iniziale.

Conclusioni

Ho trovato recentemente il sottotitolo, "Dati sono il nuovo elettricità". Così come elettricità è diventato il fulcro del secondo revolution industriale, dati sono il fulcro della rivoluzione che è appena-ahead. Gli sviluppatori di aver raccolto i dati simultaneamente, in varie forme. Una forma sempre più significativa di dati è di input del cliente - come revisione su acquisti e gli spostamenti nelle risposte ai sondaggi, commenti e suggerimenti off - sia online, i portali e altro ancora. È inoltre sempre sempre più comune per i clienti apertamente fornire tali commenti e suggerimenti, rendendo ancora più importante prendere seriamente queste informazioni. Le organizzazioni dovranno assicurarsi di ascolto ai propri clienti e intraprendere l'azione appropriata per risolvere eventuali problemi riscontrati con prodotti e servizi. Analitica il testo e i servizi cognitivi di analisi linguistica sono solo gli strumenti che offrire ai clienti.


Ashish Sahu* è un senior technical evangelist lavora con esperienza dello sviluppatore in Microsoft India, aiutare gli ISV e avvii di superare le difficoltà tecniche, adottano le tecnologie più recenti e sviluppare le proprie soluzioni a successivo livello. È possibile contattare ashish.sahu@microsoft.com.*

Grazie per il seguente esperto tecnico di Microsoft per la revisione dell'articolo: Sandeep Alur


Viene illustrato in questo articolo nel forum di MSDN Magazine