trustgraph/docs/tech-specs/architecture-principles.pt.md
Alex Jenkins 8954fa3ad7 Feat: TrustGraph i18n & Documentation Translation Updates (#781)
Native CLI i18n: The TrustGraph CLI has built-in translation support
that dynamically loads language strings. You can test and use
different languages by simply passing the --lang flag (e.g., --lang
es for Spanish, --lang ru for Russian) or by configuring your
environment's LANG variable.

Automated Docs Translations: This PR introduces autonomously
translated Markdown documentation into several target languages,
including Spanish, Swahili, Portuguese, Turkish, Hindi, Hebrew,
Arabic, Simplified Chinese, and Russian.
2026-04-14 12:08:32 +01:00

6.3 KiB

layout title parent
default Arquitetura de Grafos de Conhecimento: Fundamentos Portuguese (Beta)

Arquitetura de Grafos de Conhecimento: Fundamentos

Beta Translation: This document was translated via Machine Learning and as such may not be 100% accurate. All non-English languages are currently classified as Beta.

Fundamento 1: Modelo de Grafo Sujeito-Predicado-Objeto (SPO)

Decisão: Adotar SPO/RDF como o modelo central de representação de conhecimento

Justificativa:

  • Fornece máxima flexibilidade e interoperabilidade com tecnologias de grafos existentes
  • Permite a tradução perfeita para outras linguagens de consulta de grafos (por exemplo, SPO → Cypher, mas não o contrário)
  • Cria uma base que "desbloqueia muitas" capacidades subsequentes
  • Suporta relacionamentos de nó para nó (SPO) e relacionamentos de nó para literal (RDF)

Implementação:

  • Estrutura de dados principal: node → edge → {node | literal}
  • Manter a compatibilidade com os padrões RDF, ao mesmo tempo em que suporta operações SPO estendidas

Fundamento 2: Integração Nativa de Grafos de Conhecimento com LLMs

Decisão: Otimizar a estrutura e as operações do grafo de conhecimento para a interação com LLMs

Justificativa:

  • O caso de uso primário envolve LLMs interagindo com grafos de conhecimento
  • As escolhas da tecnologia de grafos devem priorizar a compatibilidade com LLMs em vez de outras considerações
  • Permite fluxos de trabalho de processamento de linguagem natural que aproveitam o conhecimento estruturado

Implementação:

  • Projetar esquemas de grafo que os LLMs possam entender e usar efetivamente
  • Otimizar para padrões comuns de interação com LLMs

Fundamento 3: Navegação de Grafos Baseada em Incorporações

Decisão: Implementar um mapeamento direto de consultas de linguagem natural para nós de grafos por meio de incorporações

Justificativa:

  • Permite o caminho mais simples possível de uma consulta de PNL para a navegação no grafo
  • Evita etapas complexas de geração de consultas intermediárias
  • Fornece capacidades de pesquisa semântica eficientes dentro da estrutura do grafo

Implementação:

  • NLP Query → Graph Embeddings → Graph Nodes
  • Manter representações de incorporação para todas as entidades do grafo
  • Suporte para correspondência de similaridade semântica direta para a resolução de consultas

Fundamento 4: Resolução Distribuída de Entidades com Identificadores Determinísticos

Decisão: Suportar a extração de conhecimento paralela com identificação determinística de entidades (regra dos 80%)

Justificativa:

  • Ideal: A extração em um único processo com visibilidade completa do estado permite a resolução perfeita de entidades
  • Realidade: Os requisitos de escalabilidade exigem capacidades de processamento paralelo
  • Compromisso: Projetar para identificação determinística de entidades em processos distribuídos

Implementação:

  • Desenvolver mecanismos para gerar identificadores consistentes e exclusivos em diferentes extratores de conhecimento
  • A mesma entidade mencionada em processos diferentes deve resolver para o mesmo identificador
  • Reconhecer que ~20% dos casos extremos podem exigir modelos de processamento alternativos
  • Projetar mecanismos de fallback para cenários complexos de resolução de entidades

Fundamento 5: Arquitetura Orientada a Eventos com Publicação-Subscrição

Decisão: Implementar um sistema de mensagens pub-sub para a coordenação do sistema

Justificativa:

  • Permite o acoplamento frouxo entre os componentes de extração, armazenamento e consulta de conhecimento
  • Suporta atualizações e notificações em tempo real em todo o sistema
  • Facilita fluxos de trabalho de processamento distribuídos e escaláveis

Implementação:

  • Coordenação orientada a mensagens entre os componentes do sistema
  • Streams de eventos para atualizações de conhecimento, conclusão da extração e resultados de consultas

Fundamento 6: Comunicação de Agentes Reentrantes

Decisão: Suportar operações pub-sub reentrantes para o processamento baseado em agentes

Justificativa:

  • Permite fluxos de trabalho sofisticados de agentes, nos quais os agentes podem acionar e responder uns aos outros
  • Suporta pipelines complexos de processamento de conhecimento de várias etapas
  • Permite padrões de processamento recursivos e iterativos

Implementação:

  • O sistema pub-sub deve lidar com chamadas reentrantes com segurança
  • Mecanismos de coordenação de agentes que evitam loops infinitos
  • Suporte para orquestração de fluxos de trabalho de agentes

Fundamento 7: Integração com Armazenamento de Dados Colunares

Decisão: Garantir a compatibilidade das consultas com sistemas de armazenamento colunar.

Justificativa:

  • Permite consultas analíticas eficientes em grandes conjuntos de dados de conhecimento.
  • Suporta casos de uso de inteligência de negócios e relatórios.
  • Integra a representação de conhecimento baseada em grafos com fluxos de trabalho analíticos tradicionais.

Implementação:

  • Camada de tradução de consultas: Consultas de grafos → Consultas colunares.
  • Estratégia de armazenamento híbrida que suporta tanto operações de grafos quanto cargas de trabalho analíticas.
  • Manter o desempenho das consultas em ambos os paradigmas.

Resumo dos Princípios da Arquitetura

  1. Flexibilidade em Primeiro Lugar: O modelo SPO/RDF fornece a máxima adaptabilidade.
  2. Otimização para LLM: Todas as decisões de design consideram os requisitos de interação com LLM.
  3. Eficiência Semântica: Mapeamento direto de embeddings para nós para desempenho ideal da consulta.
  4. Escalabilidade Pragmática: Equilibrar a precisão perfeita com o processamento distribuído prático.
  5. Coordenação Orientada a Eventos: Pub-sub permite o acoplamento fraco e a escalabilidade.
  6. Compatível com Agentes: Suporta fluxos de trabalho complexos de processamento multi-agentes.
  7. Compatibilidade Analítica: Integra os paradigmas de grafos e colunares para consultas abrangentes.

Essas bases estabelecem uma arquitetura de grafo de conhecimento que equilibra a rigidez teórica com os requisitos práticos de escalabilidade, otimizada para a integração com LLM e o processamento distribuído.