Native CLI i18n: The TrustGraph CLI has built-in translation support that dynamically loads language strings. You can test and use different languages by simply passing the --lang flag (e.g., --lang es for Spanish, --lang ru for Russian) or by configuring your environment's LANG variable. Automated Docs Translations: This PR introduces autonomously translated Markdown documentation into several target languages, including Spanish, Swahili, Portuguese, Turkish, Hindi, Hebrew, Arabic, Simplified Chinese, and Russian.
6.3 KiB
| layout | title | parent |
|---|---|---|
| default | Arquitetura de Grafos de Conhecimento: Fundamentos | Portuguese (Beta) |
Arquitetura de Grafos de Conhecimento: Fundamentos
Beta Translation: This document was translated via Machine Learning and as such may not be 100% accurate. All non-English languages are currently classified as Beta.
Fundamento 1: Modelo de Grafo Sujeito-Predicado-Objeto (SPO)
Decisão: Adotar SPO/RDF como o modelo central de representação de conhecimento
Justificativa:
- Fornece máxima flexibilidade e interoperabilidade com tecnologias de grafos existentes
- Permite a tradução perfeita para outras linguagens de consulta de grafos (por exemplo, SPO → Cypher, mas não o contrário)
- Cria uma base que "desbloqueia muitas" capacidades subsequentes
- Suporta relacionamentos de nó para nó (SPO) e relacionamentos de nó para literal (RDF)
Implementação:
- Estrutura de dados principal:
node → edge → {node | literal} - Manter a compatibilidade com os padrões RDF, ao mesmo tempo em que suporta operações SPO estendidas
Fundamento 2: Integração Nativa de Grafos de Conhecimento com LLMs
Decisão: Otimizar a estrutura e as operações do grafo de conhecimento para a interação com LLMs
Justificativa:
- O caso de uso primário envolve LLMs interagindo com grafos de conhecimento
- As escolhas da tecnologia de grafos devem priorizar a compatibilidade com LLMs em vez de outras considerações
- Permite fluxos de trabalho de processamento de linguagem natural que aproveitam o conhecimento estruturado
Implementação:
- Projetar esquemas de grafo que os LLMs possam entender e usar efetivamente
- Otimizar para padrões comuns de interação com LLMs
Fundamento 3: Navegação de Grafos Baseada em Incorporações
Decisão: Implementar um mapeamento direto de consultas de linguagem natural para nós de grafos por meio de incorporações
Justificativa:
- Permite o caminho mais simples possível de uma consulta de PNL para a navegação no grafo
- Evita etapas complexas de geração de consultas intermediárias
- Fornece capacidades de pesquisa semântica eficientes dentro da estrutura do grafo
Implementação:
NLP Query → Graph Embeddings → Graph Nodes- Manter representações de incorporação para todas as entidades do grafo
- Suporte para correspondência de similaridade semântica direta para a resolução de consultas
Fundamento 4: Resolução Distribuída de Entidades com Identificadores Determinísticos
Decisão: Suportar a extração de conhecimento paralela com identificação determinística de entidades (regra dos 80%)
Justificativa:
- Ideal: A extração em um único processo com visibilidade completa do estado permite a resolução perfeita de entidades
- Realidade: Os requisitos de escalabilidade exigem capacidades de processamento paralelo
- Compromisso: Projetar para identificação determinística de entidades em processos distribuídos
Implementação:
- Desenvolver mecanismos para gerar identificadores consistentes e exclusivos em diferentes extratores de conhecimento
- A mesma entidade mencionada em processos diferentes deve resolver para o mesmo identificador
- Reconhecer que ~20% dos casos extremos podem exigir modelos de processamento alternativos
- Projetar mecanismos de fallback para cenários complexos de resolução de entidades
Fundamento 5: Arquitetura Orientada a Eventos com Publicação-Subscrição
Decisão: Implementar um sistema de mensagens pub-sub para a coordenação do sistema
Justificativa:
- Permite o acoplamento frouxo entre os componentes de extração, armazenamento e consulta de conhecimento
- Suporta atualizações e notificações em tempo real em todo o sistema
- Facilita fluxos de trabalho de processamento distribuídos e escaláveis
Implementação:
- Coordenação orientada a mensagens entre os componentes do sistema
- Streams de eventos para atualizações de conhecimento, conclusão da extração e resultados de consultas
Fundamento 6: Comunicação de Agentes Reentrantes
Decisão: Suportar operações pub-sub reentrantes para o processamento baseado em agentes
Justificativa:
- Permite fluxos de trabalho sofisticados de agentes, nos quais os agentes podem acionar e responder uns aos outros
- Suporta pipelines complexos de processamento de conhecimento de várias etapas
- Permite padrões de processamento recursivos e iterativos
Implementação:
- O sistema pub-sub deve lidar com chamadas reentrantes com segurança
- Mecanismos de coordenação de agentes que evitam loops infinitos
- Suporte para orquestração de fluxos de trabalho de agentes
Fundamento 7: Integração com Armazenamento de Dados Colunares
Decisão: Garantir a compatibilidade das consultas com sistemas de armazenamento colunar.
Justificativa:
- Permite consultas analíticas eficientes em grandes conjuntos de dados de conhecimento.
- Suporta casos de uso de inteligência de negócios e relatórios.
- Integra a representação de conhecimento baseada em grafos com fluxos de trabalho analíticos tradicionais.
Implementação:
- Camada de tradução de consultas: Consultas de grafos → Consultas colunares.
- Estratégia de armazenamento híbrida que suporta tanto operações de grafos quanto cargas de trabalho analíticas.
- Manter o desempenho das consultas em ambos os paradigmas.
Resumo dos Princípios da Arquitetura
- Flexibilidade em Primeiro Lugar: O modelo SPO/RDF fornece a máxima adaptabilidade.
- Otimização para LLM: Todas as decisões de design consideram os requisitos de interação com LLM.
- Eficiência Semântica: Mapeamento direto de embeddings para nós para desempenho ideal da consulta.
- Escalabilidade Pragmática: Equilibrar a precisão perfeita com o processamento distribuído prático.
- Coordenação Orientada a Eventos: Pub-sub permite o acoplamento fraco e a escalabilidade.
- Compatível com Agentes: Suporta fluxos de trabalho complexos de processamento multi-agentes.
- Compatibilidade Analítica: Integra os paradigmas de grafos e colunares para consultas abrangentes.
Essas bases estabelecem uma arquitetura de grafo de conhecimento que equilibra a rigidez teórica com os requisitos práticos de escalabilidade, otimizada para a integração com LLM e o processamento distribuído.