trustgraph/docs/tech-specs/architecture-principles.pt.md
Alex Jenkins 8954fa3ad7 Feat: TrustGraph i18n & Documentation Translation Updates (#781)
Native CLI i18n: The TrustGraph CLI has built-in translation support
that dynamically loads language strings. You can test and use
different languages by simply passing the --lang flag (e.g., --lang
es for Spanish, --lang ru for Russian) or by configuring your
environment's LANG variable.

Automated Docs Translations: This PR introduces autonomously
translated Markdown documentation into several target languages,
including Spanish, Swahili, Portuguese, Turkish, Hindi, Hebrew,
Arabic, Simplified Chinese, and Russian.
2026-04-14 12:08:32 +01:00

113 lines
6.3 KiB
Markdown

---
layout: default
title: "Arquitetura de Grafos de Conhecimento: Fundamentos"
parent: "Portuguese (Beta)"
---
# Arquitetura de Grafos de Conhecimento: Fundamentos
> **Beta Translation:** This document was translated via Machine Learning and as such may not be 100% accurate. All non-English languages are currently classified as Beta.
## Fundamento 1: Modelo de Grafo Sujeito-Predicado-Objeto (SPO)
**Decisão**: Adotar SPO/RDF como o modelo central de representação de conhecimento
**Justificativa**:
- Fornece máxima flexibilidade e interoperabilidade com tecnologias de grafos existentes
- Permite a tradução perfeita para outras linguagens de consulta de grafos (por exemplo, SPO → Cypher, mas não o contrário)
- Cria uma base que "desbloqueia muitas" capacidades subsequentes
- Suporta relacionamentos de nó para nó (SPO) e relacionamentos de nó para literal (RDF)
**Implementação**:
- Estrutura de dados principal: `node → edge → {node | literal}`
- Manter a compatibilidade com os padrões RDF, ao mesmo tempo em que suporta operações SPO estendidas
## Fundamento 2: Integração Nativa de Grafos de Conhecimento com LLMs
**Decisão**: Otimizar a estrutura e as operações do grafo de conhecimento para a interação com LLMs
**Justificativa**:
- O caso de uso primário envolve LLMs interagindo com grafos de conhecimento
- As escolhas da tecnologia de grafos devem priorizar a compatibilidade com LLMs em vez de outras considerações
- Permite fluxos de trabalho de processamento de linguagem natural que aproveitam o conhecimento estruturado
**Implementação**:
- Projetar esquemas de grafo que os LLMs possam entender e usar efetivamente
- Otimizar para padrões comuns de interação com LLMs
## Fundamento 3: Navegação de Grafos Baseada em Incorporações
**Decisão**: Implementar um mapeamento direto de consultas de linguagem natural para nós de grafos por meio de incorporações
**Justificativa**:
- Permite o caminho mais simples possível de uma consulta de PNL para a navegação no grafo
- Evita etapas complexas de geração de consultas intermediárias
- Fornece capacidades de pesquisa semântica eficientes dentro da estrutura do grafo
**Implementação**:
- `NLP Query → Graph Embeddings → Graph Nodes`
- Manter representações de incorporação para todas as entidades do grafo
- Suporte para correspondência de similaridade semântica direta para a resolução de consultas
## Fundamento 4: Resolução Distribuída de Entidades com Identificadores Determinísticos
**Decisão**: Suportar a extração de conhecimento paralela com identificação determinística de entidades (regra dos 80%)
**Justificativa**:
- **Ideal**: A extração em um único processo com visibilidade completa do estado permite a resolução perfeita de entidades
- **Realidade**: Os requisitos de escalabilidade exigem capacidades de processamento paralelo
- **Compromisso**: Projetar para identificação determinística de entidades em processos distribuídos
**Implementação**:
- Desenvolver mecanismos para gerar identificadores consistentes e exclusivos em diferentes extratores de conhecimento
- A mesma entidade mencionada em processos diferentes deve resolver para o mesmo identificador
- Reconhecer que ~20% dos casos extremos podem exigir modelos de processamento alternativos
- Projetar mecanismos de fallback para cenários complexos de resolução de entidades
## Fundamento 5: Arquitetura Orientada a Eventos com Publicação-Subscrição
**Decisão**: Implementar um sistema de mensagens pub-sub para a coordenação do sistema
**Justificativa**:
- Permite o acoplamento frouxo entre os componentes de extração, armazenamento e consulta de conhecimento
- Suporta atualizações e notificações em tempo real em todo o sistema
- Facilita fluxos de trabalho de processamento distribuídos e escaláveis
**Implementação**:
- Coordenação orientada a mensagens entre os componentes do sistema
- Streams de eventos para atualizações de conhecimento, conclusão da extração e resultados de consultas
## Fundamento 6: Comunicação de Agentes Reentrantes
**Decisão**: Suportar operações pub-sub reentrantes para o processamento baseado em agentes
**Justificativa**:
- Permite fluxos de trabalho sofisticados de agentes, nos quais os agentes podem acionar e responder uns aos outros
- Suporta pipelines complexos de processamento de conhecimento de várias etapas
- Permite padrões de processamento recursivos e iterativos
**Implementação**:
- O sistema pub-sub deve lidar com chamadas reentrantes com segurança
- Mecanismos de coordenação de agentes que evitam loops infinitos
- Suporte para orquestração de fluxos de trabalho de agentes
## Fundamento 7: Integração com Armazenamento de Dados Colunares
**Decisão**: Garantir a compatibilidade das consultas com sistemas de armazenamento colunar.
**Justificativa**:
- Permite consultas analíticas eficientes em grandes conjuntos de dados de conhecimento.
- Suporta casos de uso de inteligência de negócios e relatórios.
- Integra a representação de conhecimento baseada em grafos com fluxos de trabalho analíticos tradicionais.
**Implementação**:
- Camada de tradução de consultas: Consultas de grafos → Consultas colunares.
- Estratégia de armazenamento híbrida que suporta tanto operações de grafos quanto cargas de trabalho analíticas.
- Manter o desempenho das consultas em ambos os paradigmas.
---
## Resumo dos Princípios da Arquitetura
1. **Flexibilidade em Primeiro Lugar**: O modelo SPO/RDF fornece a máxima adaptabilidade.
2. **Otimização para LLM**: Todas as decisões de design consideram os requisitos de interação com LLM.
3. **Eficiência Semântica**: Mapeamento direto de embeddings para nós para desempenho ideal da consulta.
4. **Escalabilidade Pragmática**: Equilibrar a precisão perfeita com o processamento distribuído prático.
5. **Coordenação Orientada a Eventos**: Pub-sub permite o acoplamento fraco e a escalabilidade.
6. **Compatível com Agentes**: Suporta fluxos de trabalho complexos de processamento multi-agentes.
7. **Compatibilidade Analítica**: Integra os paradigmas de grafos e colunares para consultas abrangentes.
Essas bases estabelecem uma arquitetura de grafo de conhecimento que equilibra a rigidez teórica com os requisitos práticos de escalabilidade, otimizada para a integração com LLM e o processamento distribuído.