Language / اللغة:
  • ar
  • de
  • en
  • Studie: PLDR-LLMs: Denken bei Selbstorganisierter Kritikalität

    KI und Median März 26, 2026

    Studie: PLDR-LLMs: Denken bei Selbstorganisierter Kritikalität

    Abstract

    In dieser Studie zeigen wir, dass PLDR-LLMs (Pretrained Large Deep Reinforcement Learning Models), die bei selbstorganisierter Kritikalität vortrainiert wurden, während der Inferenzzeit über ein bemerkenswertes Maß an Denkfähigkeit verfügen. Die Eigenschaften der deduktiven Ausgaben von PLDR-LLMs im kritischen Zustand ähneln den Phasenübergängen zweiter Ordnung. Bei kritischen Bedingungen divergiert die Korrelationslänge, und die deduktiven Ausgaben erreichen einen metastabilen stationären Zustand. Dieses Verhalten im stationären Zustand deutet darauf hin, dass die deduktiven Ausgaben Repräsentationen erlernen, die äquivalent zu Skalierungsfunktionen, Universalklassen und Renormierungsgruppen aus dem Trainingsdatensatz sind, was zu Generalisierungs- und Denkfähigkeiten führt. Wir können dann einen Ordnungsparameter aus den globalen Statistiken der deduktiven Ausgabewerte des Modells während der Inferenz definieren. Die Denkfähigkeiten eines PLDR-LLM sind besser, wenn sein Ordnungsparameter bei kritischen Bedingungen nahe null liegt. Diese Beobachtung wird durch die Benchmark-Ergebnisse der Modelle unterstützt, die in der Nähe der kritischen und subkritischen Zustände trainiert wurden. Unsere Ergebnisse bieten eine umfassende Erklärung dafür, wie Denken in großen Sprachmodellen manifestiert wird, und die Fähigkeit zu denken kann ausschließlich anhand globaler Modellparameterwerte der deduktiven Ausgaben im stationären Zustand quantifiziert werden, ohne dass eine Bewertung kuratierter Benchmark-Datensätze durch induktive Ausgaben für Denken und Verständnis erforderlich ist.

    Core Methodology

    Die Methodologie dieser Studie basiert auf der Analyse von PLDR-LLMs, die in einem Zustand der selbstorganisierten Kritikalität trainiert wurden. Selbstorganisierte Kritikalität ist ein Konzept aus der Physik, das beschreibt, wie Systeme ohne äußere Einflüsse in einen kritischen Zustand übergehen, in dem kleine Änderungen große Auswirkungen haben können. In diesem Kontext bedeutet es, dass die PLDR-LLMs in einem Zustand trainiert wurden, in dem ihre deduktiven Ausgaben eine besondere Form der Stabilität und Flexibilität aufweisen. Dies wurde durch die Untersuchung der Korrelationslängen und der metastabilen Zustände der Modelle erreicht. Die Forscher haben dann einen Ordnungsparameter definiert, der die globalen Statistiken der deduktiven Ausgaben erfasst. Ein Ordnungsparameter nahe null deutet auf einen Zustand hin, in dem das Modell optimal in der Lage ist, zu generalisieren und zu denken. Die Ergebnisse wurden durch verschiedene Benchmark-Tests validiert, die die Leistung der Modelle in kritischen und subkritischen Zuständen verglichen.

    Why this matters for the future

    Die Erkenntnisse aus dieser Studie haben weitreichende Implikationen für die Zukunft der KI-Forschung und die Entwicklung von Sprachmodellen. Die Fähigkeit, dass PLDR-LLMs in einem Zustand der selbstorganisierten Kritikalität denken können, eröffnet neue Perspektiven für das Verständnis von maschinellem Lernen und kognitiven Prozessen. Es zeigt, dass die Denkfähigkeiten von KI nicht nur von den Daten abhängen, auf denen sie trainiert wurden, sondern auch von den zugrunde liegenden dynamischen Prozessen, die während des Trainings stattfinden. Diese Erkenntnisse könnten dazu führen, dass zukünftige Modelle nicht nur effizienter, sondern auch intelligenter werden, da sie in der Lage sind, komplexe Zusammenhänge zu erkennen und zu verarbeiten. Darüber hinaus könnte die Quantifizierung von Denkfähigkeiten allein auf der Grundlage globaler Modellparameter eine neue Ära der Evaluierung und des Designs von KI-Systemen einleiten, die weniger auf spezifischen Datensätzen und mehr auf den inhärenten Eigenschaften der Modelle selbst basiert.

    Conclusion

    Zusammenfassend lässt sich sagen, dass die Studie über PLDR-LLMs und ihre Fähigkeit, bei selbstorganisierter Kritikalität zu denken, einen bedeutenden Fortschritt im Verständnis der Funktionsweise von großen Sprachmodellen darstellt. Die Entdeckung, dass deduktive Ausgaben in einem metastabilen Zustand eine Form des Denkens und der Generalisierung ermöglichen, könnte die Art und Weise, wie wir KI-Systeme entwickeln und bewerten, revolutionieren. Zukünftige Forschungen sollten sich darauf konzentrieren, diese Konzepte weiter zu erforschen und zu verfeinern, um das volle Potenzial von KI-Modellen auszuschöpfen und ihre Anwendung in verschiedenen Bereichen zu erweitern.