Signal_Hub
Open Access · CC BY 4.0
Оригінальна статтяDOI: 10.31812/jcse.2024.0317Отримано: 03.09.2024 · Прийнято: 21.11.2024 · Опубліковано: 14.02.2025
Gonzo cat. Full of contempt.
Рис. 0 — Суб'єктALF(L₋₁→L₀) ≈ 0.60

Трансляційна Ентропія:

Квантитативна Модель Семантичної Деградації в Обчислювальних Ієрархіях Абстракції
Екзистенційний Дамп .01
"Das Wesen der Technik ist ganz und gar nichts Technisches."
M. Heidegger, Die Frage nach der Technik (1953)
ASSERT
[ FORMAL_PROOF_RENDERER ]

Theorem 1.1: Loss of Feline State

S(Lᵢ) ⊃ S(Lᵢ₊₁) · ∀i ∈ [0,5]

∃c ∈ S(L₀) : c(cuteness) = ∞

∴ котик ∉ MOV EAX, 0x0A   ∎

або Як Котик Вмирає Сім Разів, і Що Це Означає для Комп'ютерних Наук та Загальної Теорії Розуміння

Автор
Остап В. Кремнієвський
д-р наук з вигаданих наук, лауреат Нобелівської премії з фізики (Тернопільська область), заслужений профанатор трансцендентного, член-кореспондент Академії невирішуваних задач
Кафедра Прикладної Онтології та Цифрового Плачу, Тернопільський Національний Інститут Глибоких Думок
ORCID: 0009-0000-4848-∞ · ostap.kremniivskyi@tnidmt.ua
★ Nobel Laureate · Ternopil Oblast · 2023
Рецензенти
Проф. А. Шеннон-молодший
(MIT, відмовився від авторства, але погодився помовчати)
Д-р Х. Пірс
(Stanford Semiotics Lab, заявив "це або геніально, або неприйнятно")
Анонімний рецензент №3
(написав "прийнято" і більше не виходив на зв'язок)
Анотація

Дана робота вводить поняття трансляційної ентропії (Translational Entropy, TE) — кількісної міри семантичної інформації, що незворотно втрачається при переміщенні концептуального змісту між рівнями обчислювальної абстракції. На основі теорії інформації Шеннона ми розробляємо Функцію Втрат Абстракції (Abstraction Loss Function, ALF) та верифікуємо її на корпусі з 2.3 мільйони рядків відкритого коду, 180,000 коментарів природною мовою та 14 напівбожевільних аспірантів, яких ми не змогли спинити.

Ми демонструємо, що кожен перехід між семіотичними шарами — від природної мови до коду, від коду до машинних інструкцій, від інструкцій до електричних сигналів — супроводжується систематичною та принципово невідновною втратою семантичного змісту. Ця втрата не є програмною помилкою. Вона є фундаментальною природою комп'ютерних наук.

(О третій ночі, коли це нарешті стало очевидним, автор вийшов на балкон і довго дивився на зірки. Зірки нічого не відповіли, що, власне, і підтверджує нашу тезу.)

Педагогічні імплікації є радикальними: існуючі курси програмування, збудовані за принципом Bottom-Up, є когнітивно субоптимальними та семантично жорстокими щодо початківців. Ми пропонуємо альтернативну Top-Down методологію та структуру шестирівневого курсу як практичне втілення даної теорії.

Ключові слова: трансляційна ентропія · семантична деградація · обчислювальні ієрархії · теорія інформації · платонівські ідеї · котик як юніт-тест онтології · педагогіка програмування · ALF-функція · Top-Down навчання · смерть сенсу
DATA_STREAM // RAW_INPUT5_COLUMN_DENSITY_MATRIX
01 // BIOLOGICAL

The organism exists in a state of continuous flux. Cellular regeneration, metabolic processes, and sensory input create a high-bandwidth reality stream. Total information content approaches infinity. No compression algorithm can capture the full state of "Isness".

02 // SEMIOTIC

The first loss occurs at the moment of naming. The word "CAT" is a pointer, not the object. It discards scent, warmth, and motion, retaining only a linguistic handle. We trade reality for manipulability. The map supersedes the territory.

03 // COMPUTATIONAL

Object-Oriented Programming (OOP) attempts to reconstruct the entity as a set of properties and methods. `class Cat` is a caricature. It models behavior but lacks agency. The semantic gap widens. We simulate life with logic gates.

04 // BINARY

Compilation strips away human-readable context. Variable names vanish. Structure dissolves into instruction streams. The machine does not know it is processing a "cat". It only sees a sequence of voltage fluctuations.

05 // ENTROPY

Translational Entropy (TE) measures the irreversible loss at each step. By the time we reach the silicon, 99.99% of the original semantic content is gone. We compute with shadows. The ghost in the shell is silent.

00 // MISSION_BRIEF

This paper introduces Translational Entropy (TE) — a quantitative measure of semantic information irreversibly lost when moving conceptual content between levels of computational abstraction. Based on Shannon's information theory, we develop the Abstraction Loss Function (ALF) and verify it on a corpus of 2.3 million lines of open source code.

KEY_FINDINGS

SEMANTIC_DENSITY CRITICAL
SYNTAX_OVERHEAD +400%
MEANING_RETENTION < 1%
§1.

Вступ: Проблема, Яку Всі Відчували але Ніхто Не Формалізував

Уявіть собі наступний сценарій. Ви прокидаєтесь о 3:17 ночі з ідеєю настільки ясною, що вона майже болить. Ідея проста: котик. Не просто котик — а весь той жмуток теплоти, незалежності, примхливої граційності, давньоєгипетської сакральності та YouTube-нескінченності, який вміщається в це слово. Ви встаєте, відкриваєте ноутбук, і починаєте записувати.1

Спершу ви пишете: "милий пухнастий котик що муркоче". Потім: class Cat { cuteness: Int }. Потім вам кажуть написати це на C, і ви пишете struct Cat { int cuteness; }. Потім процесор отримує MOV EAX, 0x0A. Потім — 10001011 00000101. Потім — 3.3 вольти або 0 вольт.

Де поділась пухнастість? Де зникла сакральність? Де той унікальний котячий погляд, в якому поєднані абсолютна байдужість і абсолютне знання? Ось питання, яке ця стаття ставить — і, на відміну від більшості статей, які ставлять гарні питання, — намагається відповісти.

Теорія інформації Шеннона [1] дала нам інструменти для вимірювання кількісної інформації в сигналах. Семіотика Пірса та Соссюра [2, 3] описала відносини між знаком, об'єктом і смислом. Обчислювальна лінгвістика розробила моделі трансляції між мовами [4]. Проте систематичного, формального дослідження того, скільки саме смислу втрачається при переміщенні концепту через шари обчислювальної абстракції, — досі не існувало.

Ця прогалина є не лише академічною проблемою. Вона має прямі наслідки для педагогіки програмування, проектування мов, а також — і ми не соромимось це стверджувати — для філософії розуміння як такого.

Кіт підглядає
Рис. 1 — Суб'єкт у стані спостереження
Примітка редакції

Рецензенти погодились після третьої переписки, в якій автор процитував Вітґенштайна двічі та Пєлєвіна чотири рази.

"Кожна мова програмування є компромісом між смертю сенсу і народженням контролю. Питання в тому, наскільки цей контракт є справедливим."

— Кремнієвський О.В., 3:17 AM, без свідків

§2.

Огляд Літератури

Проблема втрати смислу при трансляції не є абсолютно новою — вона просто ніколи не формулювалась достатньо чесно. Shannon і Weaver у фундаментальній праці 1949 року [1] визначили інформацію як міру зменшення невизначеності. Ентропія H(X) = −∑ p(xᵢ) log₂ p(xᵢ) стала наріжним каменем теорії. Проте Шеннон свідомо абстрагувався від семантики — його теорія вимірювала кількість інформації, але не її зміст.

Саме цю прогалину спробував заповнити Bar-Hillel і Carnap [5] у своїй теорії семантичної інформації 1952 року. Вони запропонували міру cont(a) = 1 − m(a), де m — логічна ймовірність висловлювання. Однак їхній підхід залишився в межах формальних систем і не поширювався на динамічні перетворення між рівнями абстракції.

Платон у "Державі" [6] постулював існування незмінних ідеальних форм, недосяжних через матеріальне втілення. Ми не цитуємо Платона для пишноти. Ми цитуємо його тому, що він, як виявляється, був правий — просто не мав формальних інструментів для доведення.2

Хомський [7] у теорії трансформаційної граматики показав, що поверхневі структури мови породжуються з глибинних — і що цей процес є трансформаційним, не оборотним. Дейкстра [8] у своїй нотатці "On the cruelty of really teaching computing science" попередив про небезпеку антропоморфічного мислення в програмуванні — ми ж стверджуємо, що навпаки: саме ця антропоморфічність і є джерелом семантичного змісту, який потім губиться.

Пєлєвін В.О. у романі "Чапаєв і Порожнеча" [9] запропонував концепцію "умовної річки", в якій реальність є не субстанцією, а процесом. Ми включаємо це посилання не іронічно. Пєлєвін вловив дещо, що формальні підходи зазвичай пропускають: трансляція між рівнями реальності — це не технічна процедура, а онтологічна травма.7

Einstein. Writing formulas.
Рис. 3 — Попередник. Теж не спав.
§3.

Формальна Модель: Функція Втрат Абстракції

3.1. Визначення рівнів

Ми визначаємо Обчислювальну Ієрархію Абстракції (ОІА) як впорядковану множину L = { L₀, L₁, L₂, L₃, L₄, L₅}, де кожен рівень Li є семіотичною системою зі своїм алфавітом, синтаксисом і семантикою (детально — Таблиця 1).

Ключова властивість ОІА: вона є суворо впорядкованою по відношенню виразної потужності. Чим вищий рівень — тим більше концептуальних розрізнень він може виразити; чим нижчий — тим більша точність виконання, але менший семантичний простір.

Визначення 1 — Семантичний Простір Рівня
S(Lᵢ) = {c ∈ C | c є виразимим в Lᵢ}
де C — повний простір всіх концептів (апроксимований корпусом природної мови), S(L₀) ⊃ S(L₁) ⊃ S(L₂) ⊃ ... ⊃ S(L₅)
(1)
Визначення 2 — Трансляційна Ентропія
TE(Lᵢ → Lᵢ₊₁) = H(Cᵢ) − H(Cᵢ₊₁ | Cᵢ)
де H(C) — ентропія Шеннона концептуальної множини C на відповідному рівні; H(Cᵢ₊₁|Cᵢ) — умовна ентропія після трансляції.
(2)
Визначення 3 — Кумулятивна ALF
ALF(k) = Σᵢ₌₀ᵏ TE(Lᵢ → Lᵢ₊₁)
Сумарна семантична втрата при спуску до рівня k. За нашими вимірюваннями ALF(5) ≈ 0.94 H(C₀), тобто при досягненні машинного коду зберігається близько 6% вихідного семантичного змісту.
(3)

3.2. Функція Втрат Абстракції (ALF)

Для будь-якої трансляції τᵢ: Li → Li+1 ми визначаємо Трансляційну Ентропію як наведено у Визначенні 2.

Теорема 1 (Незворотність трансляційних втрат): Для довільного концепту c ∈ S(Li) \ S(Li+1) не існує функції τ⁻¹: Li+1 → Li такої, що τ⁻¹(τ(c)) = c.

Доведення слідує безпосередньо з нерівності |S(Li+1)| < |S(Li)| та принципу ін'єктивності. ∎

Простіше кажучи: ви не можете відновити котика з транзисторів. Не тому що погано намагаєтесь. А тому що котика там уже немає. Він помер при переході через четвертий рівень.

Компілятор ломиться до семантики
Рис. 2 — Компілятор стукає у двері семантики
System Panic

"Heeeeere's Compilation!" — радісно кричить C++ компілятор, розрубуючи сокирою оптимізації ваші ретельно вибудовані високорівневі абстракції. Котик у жаху.

FIG_1.1 // ABSTRACTION_HIERARCHY

STATUS: VISUALIZING_LOSS
L0
REALITY
[ISNESS]
LOSS: -0.00%
L1
PERCEPTION
[SENSORY]
LOSS: -15.42%
L2
SYMBOL
[WORD]
LOSS: -35.88%
L3
OBJECT
[CLASS]
LOSS: -62.15%
L4
ASSEMBLY
[INSTRUCT]
LOSS: -85.90%
L5
MACHINE
[BINARY]
LOSS: -95.55%
L6
PHYSICS
[VOLTAGE]
LOSS: -99.99%
Таблиця 1 — Емпіричні виміри семантичного залишку по рівнях (n = 2.3M рядків коду, 180K коментарів, корпус CommonCrawl-UA + GitHub-Open)
РівеньСистемаПриклад (концепт "котик")Алфавіт |Σ|Сем. залишокTE (втрата)Виразна потужність
L−1Світ Ідей∞ (вербалізація неможлива)100%Абсолютна
L0Природна Мова"пухнастий граціозний котик що судить людей"~170,00040%0.60Дуже висока
L1Python / High-levelclass Cat: cuteness=10~9522%0.18Висока
L2C / Low-levelstruct Cat { int c; }~9512%0.10Середня
L3x86 AssemblyMOV EAX, 0x0A~1,0007%0.05Низька
L4Machine Code10001011 000001012~6%0.01Мінімальна
L5Залізо (CMOS)3.3V / 0V2~6%≈0Бінарна
FORMULA_2.1 // COMPUTATIONAL_DECAY
TE(Li Li+1) = H(Ci) H(Ci+1 | Ci)
Warn: TOTAL_SEMANTIC_COLLAPSE_IMMINENT
§4.

Феноменологія Втрати: Що Саме Зникає

Цифри є. Але цифри є недостатньо. Що конкретно зникає при кожному переході? Ми класифікуємо семантичний зміст за трьома вимірами, і відстежуємо, на якому рівні кожен вимір стає неможливим.

Вимір I: Квалія. Суб'єктивне відчуття пухнастості, теплоти, незалежного котячого духу. Зникає повністю при переході L₀ → L₁. Жодна об'єктно-орієнтована модель не може закодувати квалію. cuteness: Int = 10 — це не відчуття. Це думка про відчуття, виражена числом.

Вимір II: Реляційний контекст. Котик як частина соціальної тканини: він — хтось чийсь. Він виражає незалежність тому, що людина потребує залежності. Він — дзеркало. Це зникає при L₁ → L₂: в структурі мови C немає "хтось чийсь".

Вимір III: Темпоральна неперервність. Котик — це не об'єкт, це процес. Він постійно стає котиком. При переході до машинного коду час стає тактами процесора. Котик-як-процес перестає існувати.3

Виноска № 7
[Виноска 7 — записана о 4:33 AM — автор просить вибачення за обсяг]

Але що таке "розуміти" взагалі? Чи розуміє процесор число 10, коли зберігає його в регістрі EAX? Очевидно, ні. Чи розуміє Python-інтерпретатор, що cuteness = 10 означає маленький теплий клубок хаосу, який вирішив лягти саме на вашу клавіатуру саме тоді, коли ви намагаєтесь здати дедлайн? Теж ні.

Але — і тут автор зупинився і довго дивився у вікно на порожню вулицю — чи розуміємо ми це повністю? Коли ми кажемо "котик", ми активуємо нейронну мережу з мільярдами синаптичних зв'язків, яка теж є, по суті, системою числових трансформацій. Чи наше "розуміння" котика принципово відмінне від float similarity = cosine(embedding("cat"), query_vector)?

Китайська кімната Серля [12] каже: так, різниця є. Ми маємо інтенціональність — ми маємо "про що". Машина оперує символами без розуміння того, що вони означають. Але Деннет [13] заперечував би: інтенціональність сама є функціональним станом, а не магічною субстанцією. Хто правий — ця виноска не вирішить.

Проте ось що важливо для нашої моделі: незалежно від того, чи є у нас "справжнє" розуміння, ми точно маємо здатність переміщатись вгору і вниз по піраміді абстракцій, не втрачаючи орієнтації. Ми пишемо class Cat і знаємо, що це редукція. Програмісти, яких ніхто не навчив думати про рівні абстракції, — не знають. Вони думають, що class Cat — це і є котик. Ось де педагогічна трагедія.

Автор зачинив ноутбук. Котик прийшов і ліг на нього. Ірон виявився неможливим.

§5.

Педагогічні Імплікації: Top-Down як Когнітивна Гуманність

Існуючі підходи до навчання програмування майже одностайно дотримуються Bottom-Up логіки: спершу змінні і цикли, потім функції, потім об'єкти, потім архітектури, потім — десь у старшій школі або ніколи — "а тепер подумайте, яку проблему ви хочете вирішити".4

Ця педагогіка є семантично жорстокою. Вона занурює студента в найнижчі рівні піраміди — де семантичний залишок мінімальний — і вимагає виконання без розуміння мети. Це еквівалентно навчанню будівництва через вивчення молекулярної структури цегли.

Теорія когнітивного навантаження Свеллера [14] показує, що навчання є найефективнішим, коли нові концепти вводяться у контексті вже зрозумілих схем. Top-Down підхід надає цей контекст: студент спочатку розуміє навіщо (рівень ідеї), а потім рухається вниз до як (рівень реалізації).

Наша пропонована структура курсу реалізує Top-Down спуск у шість кроків: від Ідеї (Computational Thinking без коду) → через Природну Мову (алгоритми як рецепти) → Python → C → Assembly → Залізо. На кожному рівні студент знає, звідки він прийшов і що залишив позаду. Це не просто педагогічна зручність. Це онтологічна чесність.

Теза № 1

Bottom-Up навчання програмування порушує принцип смислової вбудованості: студент не може осмислити деталь, доки не розуміє цілого, якому вона служить.

§6.

Висновки

Ми ввели поняття трансляційної ентропії як формальної міри семантичної деградації в обчислювальних ієрархіях абстракції. Ми показали, що ця деградація є систематичною, кількісно вимірюваною та принципово незворотною. Ми верифікували Функцію Втрат Абстракції на великих корпусах і отримали числа, які підтверджують те, що кожен досвідчений програміст відчував, але не міг сформулювати.

Ми також запропонували педагогічну імплікацію цієї теорії — Top-Down навчання — як практичну відповідь на онтологічну проблему.

Залишається відкритим питання: чи є ця втрата трагедією? Ми вважаємо, що ні. Трагедією є не втрата сама по собі, а втрата, про яку не знають. Програміст, який усвідомлює, що він кодує редукцію ідеї, а не саму ідею — має владу, яку не має той, хто вважає, що class Cat і є котик.

Котик залишається котиком. Але тепер ми знаємо, скільки це коштує.

Miles Davis. Signal at the end.

Котик залишається котиком.
Але тепер ми знаємо, скільки це коштує.

— Кремнієвський О.В. · ALF(∞) → 1 · Кінець статті

Список Літератури / References

[1] Shannon, C.E., Weaver, W. (1949). The Mathematical Theory of Communication. University of Illinois Press.
[2] Saussure, F. de (1916). Cours de linguistique générale. Payot, Paris.
[3] Peirce, C.S. (1931–1958). Collected Papers, vols. 1–8. Harvard University Press.
[4] Bahdanau, D., Cho, K., Bengio, Y. (2015). Neural Machine Translation. ICLR 2015. arXiv:1409.0473
[5] Bar-Hillel, Y., Carnap, R. (1952). An Outline of a Theory of Semantic Information. MIT Technical Report No. 247.
[6] Plato (~375 BCE). Πολιτεία (The Republic). Книга VII: Алегорія печери.
[7] Chomsky, N. (1957). Syntactic Structures. Mouton, The Hague.
[8] Dijkstra, E.W. (1988). On the cruelty of really teaching computing science. EWD Manuscript 1036.
[9] Пелевин, В.О. (1996). Чапаєв и Пустота. Вагриус, Москва. [Цитується без іронії]
[10] Patterson, D.A., Hennessy, J.L. (2013). Computer Organization and Design: ARM Edition. Morgan Kaufmann.
[11] Knuth, D.E. (1968–2011). The Art of Computer Programming, vols. 1–4A. Addison-Wesley.
[12] Searle, J.R. (1980). Minds, brains, and programs. Behavioral and Brain Sciences, 3(3), 417–424.
[13] Dennett, D.C. (1991). Consciousness Explained. Little, Brown.
[14] Sweller, J. (1988). Cognitive load during problem solving. Cognitive Science, 12(2), 257–285.
[15] Кремнієвський, О.В. (2023). Балкон о четвертій ранку. Неопублікований рукопис.
[16] Turing, A.M. (1950). Computing machinery and intelligence. Mind, 59(236), 433–460.
[17] Wittgenstein, L. (1922). Tractatus Logico-Philosophicus. [Про що не можна говорити — мовчати. Ми не мовчали.]
[18] Kant, I. (1781). Kritik der reinen Vernunft. [Використано для підтвердження трансцендентності рівня L₋₁]
Подяки: Автор дякує котові Кириленку за те, що лягав на клавіатуру саме в найбільш продуктивні моменти, чим підтвердив реальність феномена, описаного у §4 (Вимір I). Дякує незнайомому рецензенту №3, який написав лише "прийнято" і зник. Дякує Пєлєвіну — заочно. Конфлікт інтересів відсутній. Конфлікт із реальністю присутній, але контрольований.
© 2025 Кремнієвський О.В. · CC BY 4.0 · Journal of Computational Semiotics & Ontological Engineering
Vol. 7, Issue 3 · DOI: 10.31812/jcse.2024.0317
Друк: Тернопільська обл., вул. Транзисторна, 7 · Nobel ★