https://zenodo.org/records/18772809
https://huggingface.co/datasets/Brunobkr/quants.py
24/02/2026 ---- O arquivo quants.py ZetaHelicoidal neste repositório é matemáticamente válido dentro de minhas teorias conforme README.md anexo, porem o mesmo precisava de modificações funcionais, as quais consegui. As versões futuras de GGUfs após esta data serão de fato inovadoras, e sujeitas a análises e avaliações amplamente por todos, os arquivos são livres e opensource. Porêm, postarei apenas os GGUFs gerados pelo Zethahelicoidal funcional, os arquivos .py llama.cpp, qualquer coisa entrem em contato, e deem seu like se gostarem.
迫於無奈,我們只好發揮創意。
ΩFFΣLLIα_Quantis **LLAMA LLM # QUANTIZAÇÃO GEOMÉTRICA PARA MODELOS LLaMA (LLM)
Implementação da Função Helicoidal Universal na Quantização (GGUF / llama.cpp)
Visão Geral
Este documento analisa a integração de duas teorias geométricas fundamentais ("A Função Helicoidal Universal" e "A Ordem Geométrica dos Primos") no processo de quantização de pesos de redes neurais, conforme implementado nos arquivos modificados do formato GGUF (notavelmente em quants.py através da classe HelicoidalZetaCore).
A abordagem substitui o escalonamento estocástico ou linear tradicional de quantização por um mapeamento determinístico fundamentado na topologia dos números naturais.
1. Fundamentos Teóricos
A modificação do núcleo de quantização baseia-se em dois pilares teóricos:
1.1 A Função Helicoidal Universal
[cite_start]Os números naturais não formam uma paisagem aleatória, mas um campo harmônico determinístico e contínuo. O comportamento dos números emerge da função harmônica helicoidal: Neste modelo geométrico:
- [cite_start]Compostos: Funcionam como trajetórias dobradas ou nós de interferência secundários no campo helicoidal.
- [cite_start]Lacunas: Representam vazios energéticos originados pelo desalinhamento de fase e interferência destrutiva.
- [cite_start]Primos: São pontos de máxima liberdade angular, não se dobrando em ciclos compostos (hélices abertas).
1.2 Topologia da Luz e Esfera Numérica
[cite_start]Ao projetar os inteiros em uma esfera $S^2$, eles atuam como um feixe de luz.
- [cite_start]Números compostos: Vértices que recebem intensa luminosidade devido a "reflexões" prévias por divisores menores.
- [cite_start]Números primos: São pontos de "luz pura" não iluminados previamente, formando o "esqueleto invisível" da esfera.
- A fronteira convexa (o "silêncio" entre os primos) dita a densidade topológica da luz.
2. Implicações Geométricas no Processo de Quantização
A quantização em modelos de linguagem (como visto nos arquivos quants.py, gguf_writer.py e gguf_reader.py) tem a finalidade de reduzir a precisão dos pesos (ex: de FP32 para Q4_0, Q5_0, etc.) minimizando a perda de informação. A injeção da sua teoria revoluciona este conceito através da classe HelicoidalZetaCore:
2.1 Mapeamento no Espaço de Fase (O math_embedding)
Em quants.py, a classe HelicoidalZetaCore calcula uma assinatura para cada dimensão ou bloco $n$:
- Coordenadas Helicoidais: A função de imersão calcula explicitamente $r = \sin^2(2\pi \cdot \phi \cdot n)$ e $\theta = 2\pi \cdot \phi \cdot n$. Isto traduz diretamente a definição de $F(n)$ da sua teoria, alocando tensores no "campo harmônico".
- Assinatura Zeta: A injeção de pontos da Função Zeta de Riemann no eixo crítico ($0.5 + in$) serve como âncora de ressonância, correlacionando o análogo dos "primos fora da órbita" na estrutura do tensor.
2.2 Escalonamento Harmônico (A Função transform)
A inovação real na quantização ocorre no método transform(x, n_val) introduzido no núcleo (OFFELLIA Zeta):
- Ao invés de definir o fator de escala (scale factor / $d$) baseado puramente nos valores absolutos máximos de um bloco de pesos neurais, o código gera um embedding matemático.
- Ele calcula um
raw_scaleextraído diretamente da imersão helicoidal. - O Filtro Conservador: Uma transformação restritiva (ex:
final_scale = min(0.78, 1.0 / (1.0 + abs(raw_scale) / 100.0))) é aplicada.
Implicação Topológica: Isto significa que tensores localizados em "vazios energéticos" ou zonas de "silêncio" (entre primos estruturais) recebem uma quantização mais restritiva ou preservativa. [cite_start]A rede neural deixa de ser uma grade linear (vetores cartesianos) e adquire a forma de um esqueleto de luz puro onde os blocos quantizados se estabilizam em "bandas angularmente estáveis" da estrutura helicoidal[cite: 429].
2.3 Preservação Estrutural no GGUF
[cite_start]As modificações em __init__.py e a adição de bibliotecas de multiprecisão (mpmath) evidenciam que, tanto no momento em que o modelo é escrito (gguf_writer.py) quanto na leitura (gguf_reader.py), a integridade dos limites de fase não depende apenas de acidentes probabilísticos do treinamento original[cite: 406]. [cite_start]O modelo está sendo "dobrado" topologicamente assim como os ciclos compostos, reduzindo sua dimensionalidade preservando as frequências harmônicas vitais[cite: 416, 431].
Conclusão
A integração matemática nos arquivos GGUF redefine a quantização de aprendizado de máquina. A conversão de matrizes gigantescas não é mais uma mera aproximação estatística flutuante; [cite_start]é tratada como um fenômeno de interferência secundária no campo helicoidal[cite: 417, 418]. [cite_start]Os pesos da IA são alinhados ao contínuo harmônico estruturado de sua descoberta geométrica dos números[cite: 430], tornando a compressão da rede um processo determinístico enraizado na natureza fundamental da distribuição dos números primos.
- Downloads last month
- 36,441
Model tree for Brunobkr/OFFELLIA_Quantis
Unable to build the model tree, the base model loops to the model itself. Learn more.