Para extrair todas as anotações de objetos da resposta da API na área de Inteligência Artificial – API Google Vision – Compreensão avançada de imagens – Detecção de objetos, você pode utilizar o formato de resposta fornecido pela API, que inclui uma lista de objetos detectados junto com seus correspondentes caixas delimitadoras e pontuações de confiança. Ao analisar esta resposta, você pode extrair as anotações do objeto desejado.
A resposta da API normalmente consiste em um objeto JSON contendo vários campos, incluindo o campo "localizedObjectAnnotations", que contém os objetos detectados. Cada anotação de objeto inclui informações como o nome do objeto, as coordenadas da caixa delimitadora e uma pontuação de confiança que indica a confiança da API na detecção.
Para extrair as anotações do objeto, você pode seguir estas etapas:
1. Analise a resposta da API: comece analisando a resposta JSON recebida da API. Isso pode ser feito usando uma biblioteca de análise JSON ou funções integradas fornecidas pela sua linguagem de programação.
2. Acesse o campo "localizedObjectAnnotations": Uma vez analisada a resposta, acesse o campo "localizedObjectAnnotations", que contém os objetos detectados. Este campo normalmente é uma matriz de anotações de objetos.
3. Iterar pelas anotações do objeto: Iterar por cada anotação do objeto na matriz. Cada anotação representa um objeto detectado na imagem.
4. Extraia informações relevantes: Extraia as informações relevantes de cada anotação de objeto, como o nome do objeto, as coordenadas da caixa delimitadora e a pontuação de confiança. Esses detalhes podem ser acessados como campos separados dentro de cada anotação de objeto.
5. Armazene ou processe as informações extraídas: Dependendo de seus requisitos, você pode armazenar as informações extraídas em uma estrutura de dados ou processá-las posteriormente para análise ou outros fins. Por exemplo, você pode querer armazenar os nomes dos objetos e suas coordenadas de caixa delimitadora correspondentes em um banco de dados ou usá-los para tarefas adicionais de compreensão de imagens.
Aqui está um exemplo simplificado para ilustrar o processo de extração:
python import json # Assume 'response' contains the API response in JSON format response =
{
"localizedObjectAnnotations": [
{
"meio": "/m/01g317",
"nome": "gato",
"pontuação": 0.89271355,
"boundingPoly": {
"normalizedVertices": [
{"x": 0.1234, "y": 0.5678},
{"x": 0.5678, "y": 0.1234}
] }
},
{
"meio": "/m/04rky",
"nome": "cachorro",
"pontuação": 0.8132468,
"boundingPoly": {
"normalizedVertices": [
{"x": 0.4321, "y": 0.8765},
{"x": 0.8765, "y": 0.4321}
] }
}
]}
# Parse the API response response_data = json.loads(response) # Access the object annotations annotations = response_data['localizedObjectAnnotations'] # Iterate through the object annotations for annotation in annotations: # Extract relevant information object_name = annotation['name'] bounding_box = annotation['boundingPoly']['normalizedVertices'] confidence = annotation['score'] # Process or store the extracted information print(f"Object: {object_name}, Bounding Box: {bounding_box}, Confidence: {confidence}") # Output: # Object: cat, Bounding Box: [{'x': 0.1234, 'y': 0.5678}, {'x': 0.5678, 'y': 0.1234}], Confidence: 0.89271355 # Object: dog, Bounding Box: [{'x': 0.4321, 'y': 0.8765}, {'x': 0.8765, 'y': 0.4321}], Confidence: 0.8132468
Neste exemplo, assumimos uma resposta JSON contendo dois objetos detectados: um gato e um cachorro. O código analisa a resposta, acessa o campo "localizedObjectAnnotations", itera através de cada anotação de objeto e extrai o nome do objeto, as coordenadas da caixa delimitadora e a pontuação de confiança. Por fim, as informações extraídas são impressas, mas você pode modificar o código para atender às suas necessidades específicas.
Seguindo essas etapas, você pode extrair efetivamente todas as anotações de objetos da resposta da API no campo de Inteligência Artificial – API Google Vision – Compreensão avançada de imagens – Detecção de objetos.
Outras perguntas e respostas recentes sobre Compreensão avançada de imagens:
- Quais são algumas categorias predefinidas para reconhecimento de objetos na API Google Vision?
- Qual é a abordagem recomendada para usar o recurso de detecção de pesquisa segura em combinação com outras técnicas de moderação?
- Como podemos acessar e exibir os valores de probabilidade para cada categoria na anotação de pesquisa segura?
- Como podemos obter a anotação de pesquisa segura usando a API Google Vision em Python?
- Quais são as cinco categorias incluídas no recurso de detecção de pesquisa segura?
- Como o recurso de pesquisa segura da API Google Vision detecta conteúdo explícito nas imagens?
- Como podemos identificar e destacar visualmente os objetos detectados em uma imagem usando a biblioteca de travesseiros?
- Como podemos organizar as informações extraídas do objeto em formato tabular usando o data frame do pandas?
- Quais bibliotecas e linguagens de programação são usadas para demonstrar a funcionalidade da API Google Vision?
- Como a API Google Vision realiza detecção e localização de objetos em imagens?
Veja mais perguntas e respostas em Compreensão avançada de imagens