securemark 0.295.9 → 0.296.0

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
package/CHANGELOG.md CHANGED
@@ -1,5 +1,9 @@
1
1
  # Changelog
2
2
 
3
+ ## 0.296.0
4
+
5
+ - Change link, media, annotation, and reference parsers to disallow invisible leading content.
6
+
3
7
  ## 0.295.9
4
8
 
5
9
  - Refactoring.
package/design.md CHANGED
@@ -296,7 +296,7 @@ CommonMarkは初手設計ミスったせいで構文一つで最悪計算量32n
296
296
  SecuremarkのAnnotation構文に典型的であるように文脈を変更する構文の中にその文脈に依存し変更される他の構文が存在する場合文脈の相違から解析結果を再利用不能(`αAβ | αA'B`)なバックトラックが生じる。またこの結果再帰的バックトラックが生じる可能性があり再帰的バックトラックは一般的にメモ化により解決されるがCommonMarkは最小計算量と実行性能を追及するためメモ化を廃止していることからメモ化により性能を低下させてまで文脈依存構文の問題を解決するつもりはないと思われる(すなわちCommonMarkは機械を至上とし人間に制約を課す低水準の言語であり人間の需要と生産性を至上とする高水準の言語であるSecuremarkの対極に位置する)。従ってCommonMarkは再帰的バックトラックなしで解析可能な構文と最小計算量に制約され基本的に再帰的バックトラックが生じるものである文脈依存構文を追加できないという拡張性の欠陥が存在する(CommonMarkは文脈を変えず`*A*`の記号と解釈を変更しただけの`~~A~~`のような文脈自由構文は容易に追加できるが他の構文を包含可能な文脈依存構文はリンク構文で発生している再帰的バックトラックまたはその修正のために激増した計算量を組み合わせ爆発により指数関数的に致命的に悪化させるため追加できない。例えばすでに最悪計算量32nであるリンク構文を包含した追加構文が1回バックトラックするだけで最悪計算量が32n\*2=64nに悪化し追加構文がリンク構文と同じく最悪計算量32nなら全体の最悪計算量は32n\*32=n\*32^2=1024nとなる。すなわちCommonMarkの最悪計算量は再帰的バックトラックが生じる構文の数mに対してO(n\*32^m)と驚異的かつ絶望的に劣悪な計算量であり構文数が一つであろうと自己再帰可能ならば入れ子数mに対して同じくO(n\*32^m)となる。なお一般的に実用可能な計算量の上限はO(n^3)であるためCommonMarkは文脈依存構文数または入れ子数m>3になるだけで実用可能な計算量の上限を超える。すなわちCommonMarkは自己再帰可能な文脈依存構文を定義することが不可能である。この事実に開発開始から数年後に直面し再帰数の上限を32回に制限することで指数計算量を防ぐも依然として32nという非常識な計算量になっているのがリンク構文とイメージ構文である。なおリンク構文とイメージ構文を入れ子にできているのはイメージ構文を入れる角括弧部分が文脈自由部分だからであり文脈依存部分である丸括弧部分は入れ子になっておらず文脈依存部分の入れ子が生じていないからである。しかし文脈依存構文を追加してリンク構文を包含すれば丸括弧部分を包含し文脈依存部分が入れ子になり計算量の爆発を避けられない)。CommonMarkの仕様策定者が構文の拡張に(名称を維持するか否かにかかわらず)不自然なまでに消極的であり進展がないのは正当な理由や単なる怠慢からでなく構文追加可否を議論すればCommonMarkは理論的欠陥により最悪計算量が絶望的に劣悪であるため文脈依存構文を追加できないというCommonMarkの設計の破綻と失敗が明らかになることが避けられないためおよび最小計算量を放棄して現在の高い実行性能を低下させたくないためであり陳腐な自尊心を守るためにこのような計算量と拡張性の根本的欠陥を秘匿しCommonMarkとその仕様策定者である自分の評価が下がらないよう画策しているからである。でなければこの計算量と拡張性の根本的欠陥を何年も隠蔽せず速やかに公表して助力を求めていなければならず不都合な事実を隠し陳腐な自尊心を守るために全Markdown利用者および開発者を不必要に足止めした罪は重い。
297
297
  CommonMarkは小さく単純であるうちだけ破綻せずに正しく見せかけられる象牙の塔であり仕様策定者はこの見せかけの正しさを失わず正しいままでいたいがために象牙の塔に引きこもり小さな表面的正しさに固執し続けているに過ぎない。しかしCommonMarkは実際にはすでに致命的に破綻しており本来文脈依存言語であるMarkdownを文脈自由言語として解析しようとして失敗したことで指数計算量(正確には指数計算量より悪い階乗計算量)になっており実際のところCommonMarkは最初から最後までずっと壊れている。CommonMarkは可能な限り文脈自由言語として設計することでバックトラックなく最小計算量で解析しようとしているが実際には文脈依存言語であるMarkdownから文脈依存構文を文脈自由構文に変換して再帰的バックトラックを除去することに失敗しているためCommonMarkは最初の数年間は再帰的バックトラックに気づかず最悪計算量が指数計算量になっており修正後も依然として最悪計算量が当初の想定の1nから32nへと劇的に悪化している(より正確にはCommonMarkは少なくともCode構文とHTML構文により+2nされるが説明の簡略化のため省略しこれら以外のInline構文のみを比較する)。CommonMarkが最初の数年間他人に指摘され修正されるまで指数計算量であった事実(https://github.com/commonmark/cmark/commit/45f4fc9b917c11221aa03e70a41e3046335a235d)はCommonMarkが初歩的な再帰的バックトラックの原理すら理解していないド素人により設計された素人仕事である事実を証明しておりたかが強調構文の解析のためにメモ化を行い(https://github.com/commonmark/commonmark.js/commit/6d7d6cf150dedb53b7f0972b79313df3364ebbed https://github.com/commonmark/commonmark.js/blob/ac8529c9f55da7fdc1186e3f34313cf411de6e71/js/stmd.js )他人にメモ化を使わない正しい実装に修正された事実(https://github.com/commonmark/commonmark.js/commit/8837f199608ac2e321f75653736747b1e692072f)もまたCommonMarkの仕様策定者がその任に堪える能力のないド素人である事実を証明している。スタックを使う代わりにメモ化するド素人の能力を誰が擁護できるのか?ド素人が作った結果初歩的な再帰的バックトラックすら他人に指摘されるまで気づかず修正後も最悪計算量が32nにまで著しく悪化した設計が正しいと言えるのか?不可能である。一貫してド素人により設計開発仕様策定されているCommonMarkは仕様策定が停滞し未だに1nの最小計算量に固執しているがそんなものはCommonMarkの破綻と失敗が露呈するを恐れて隠蔽しまたとっくの昔に破綻している最小計算量のための設計に未練がましく執着しているだけである。32nという最悪計算量は適切に設計し計算量が抑制された文脈依存言語の最悪計算量より悪く最初から文脈依存言語として適切に設計するほうが自然で破綻がなく拡張性を確保できていた。たった一つの構文だけで最悪計算量が32nも増加するクソ言語に拡張性がないことは明らかである。さらにSecuremarkは再帰的バックトラックを予め対策して設計されているため文脈依存構文数が増えても最悪計算量はたかだか構文数に比例して線形にしか増加しないのに対してCommonMarkは再帰的バックトラックに根本的対策を取れないため文脈依存構文数が増えると最悪計算量が指数関数的に致命的に爆発する。または計算量を組み合わせ爆発させないために文脈依存構文の入れ子使用を制限する、存在自体が破綻と失敗の宣言に等しい制限が必要になる。文脈依存構文を強引に文脈自由構文として解析しようとして失敗したために最悪計算量が当初の想定の1nから32nに劇的に悪化し結局文脈依存言語の妥当な最悪計算量より悪い水準に落ちていることおよび文脈依存構文を追加すると最悪計算量が指数関数的に悪化することから文脈自由化に失敗したCommonMarkの破綻と失敗は明らかでありCommonMarkは文脈自由構文に固執せず最初から多少の文脈依存構文を許容するよう設計しなければならなかった。実際には文脈依存言語であるにもかかわらず文脈自由言語の範囲でしか構文解析できなければ構文解析が破綻し構文が増えるほど破綻が拡大することは自明でありすでに破綻済みで失敗済みのCommonMarkに未来などない。文脈依存言語であるMarkdownに対して文脈自由構文解析器として作られたCommonMarkは最初から開発戦略と技術選択を間違え失敗しており最初から破綻していた。CommonMarkが文脈依存言語を文脈自由言語として最小計算量で解析するために使用した手法は邪道の小手先の技術に過ぎずCommonMarkは邪道を選んだ挙句失敗に終わったのである。文脈依存言語を文脈依存言語のまま解析する正道を選んだSecuremarkが正着し文脈依存言語を文脈自由言語に歪める邪道を選んだCommonMarkが失着に終わったのは当然の帰結であり最初の解析戦略時選択の時点で決まっていたことである。文脈依存言語であるMarkdownを文脈自由言語として解析しようとした結果行き詰ったCommonMarkとその閉塞に技術的合理性はなくCommonMarkは最初からの失敗していた過去の遺物であり廃棄すべき負債である。CommonMarkに動きがないのはすでに破綻しており死んでいることに気付かれないように死んでいるからに過ぎない。このようにCommonMarkは完全に破綻し失敗に終わっているためCommonMarkの拡張や発展を期待しても無駄であり既存の文脈依存構文の最悪計算量を健全化し新たに文脈依存構文を追加可能な拡張性の高いMarkdown仕様は新しく作り直さなければ作れない。しかしCommonMarkの仕様策定者は独自の新しい仕様においても依然としてMarkdownを文脈自由化して文脈自由言語として設計しているため文脈依存構文を追加すると指数計算量になり救いようがない。しかもその構文と仕様は機械可読性を至上としているため非常に醜く人間が書くことも読むことも困難で人間に対する実用性が欠如している。
298
298
  Securemarkはスーパークラス構文が解析に失敗した入力をサブクラス構文で解析しないことにより再帰的バックトラックを回避する(解析中の構文自身はスーパークラスとサブクラスの両方に含まれるものとする)。スーパークラス構文A(`αAβ`)の解析が失敗すればサブクラス構文B(`α'Aβ'`)の解析も失敗することは自明であり試みるまでもなく解析を省略できる。これは二つの構文の文法が生成する各言語空間がスーパーセットとサブセットの関係にあるならスーパーセットの言語空間の外にある文字列はサブセットの言語空間の内に入る余地がないことからも自明である(この解析法は事前解析によっても可能だが文脈内外のオートリンクURLの括弧解析などを高速に行うこともバックトラックなしで解析することも困難であり本解析に近い解析コストを要するためMarkdownをこの事前解析により高速化することは難しい)。メモ化は解析結果の再利用による高速化の副次的または追加的効果として再帰的バックトラックを回避しているのでありメモ化は再帰的バックトラックを回避するだけなら過剰であり不要である(メモ化はバックトラックがなければ使用されないためバックトラックが少ないほとんどの入力に対してはほとんど使用されず無駄であり空間計算量を不必要に常時数倍以上増加させることから構文解析において必須にも標準にもできない。再帰的バックトラック回避のためにメモ化するとバックトラックなしで解析可能な場合も常に不必要に空間計算量が増加し平均計算量が有意に悪化することがメモ化の最大の欠点である(この問題は解析失敗時のみメモ化すれば解消可能のはずだが基本的にはこうなる)。特に文脈自由構文解析器におけるメモ化の使用は完全に無駄でありバグである。バックトラックが発生しないか他の方法で解決されるならば使用されず破棄されるメモ化は無駄である。複数の文脈で解析結果が同一である文脈独立性のある構文ならメモ化した解析結果を異なる文脈で再利用でき有用だがそのような構文は基本的に少数であるため効果が限定的であり最悪計算量は改善されない。文脈依存構文の解析を困難にするメモ化のコストの重さは解析に本来不要な高速化のために生じており不要な高速化とこのためのコストを除去すれば再帰的バックトラック回避機能だけを低コストで標準的に使用しこれまで高コストであったため敷居が高く使用困難であった文脈依存言語を低コストで手軽に定義および解析できるようになる)。この解析法により、CommonMarkならば最悪計算量がn\*32^5=33,554,432nとなる拡張Markdown言語をSecuremarkはメモ化なしで6nの最悪時間計算量で解析している。言語差を考慮せず直接比較してさえ単純なCommonMarkの最悪計算量32nに対して複雑なSecuremarkは6nに過ぎずSecuremarkはCommonMarkより最悪計算量が非常に小さい。またSecuremarkはメモ化を行っていないため空間計算量も小さい。時間計算量と空間計算量を合わせてO(n, n)と表記すると文脈依存言語の通常の最悪計算量はO(n^2, n)、メモ化により効率化できた場合もO(nm, nm)(S(m)>=m byte)(解析結果の位置や構文木等を記録するため空間使用量S(m)>はm byte以上となり数値一つやポインタ一つだけでも8byteを消費する)に過ぎないがSecuremarkのマーキング法はO(nm, nm)(S(m)=m bit)(解析の失敗フラグしか記録しないためS(m)=m bit。また包含文字列を含め全体でn byteの構文1つに対して解析結果の構文木を保持するメモ化は少なくとも構文木のサイズn byteを消費するがマーキング法のメモリ消費量は構文全体のサイズにかかわらず1bit固定である。よって100KBの構文1つに対してメモ化は100KB以上消費するがこの場合もマーキング法は1bitしか消費しない。なお成功フラグによる解析は成功フラグがないのが失敗したからか未到達だからかを判別するための情報と処理が追加で必要になり処理が複雑化しさらに成功フラグは解析のほとんどを占める成功した解析に対してメモリ消費と追加処理が発生し解析効率が全体として悪化するが失敗フラグは少数の失敗した解析でしか解析効率が悪化しないため失敗フラグを記録するほうが全体および平均として解析効率が高く優れている)と極めて効率的であり最も優れている。以上のようにSecuremarkの構文解析アルゴリズムの優位性は理論と実践いずれにおいても圧倒的である。現在のSecuremarkは開発効率と安全性優先の実装により実行性能が大きく低下しているがクライアントで個別のユーザーの操作に応じるには十分高速であるためクライアントで解析するなら解析の効率または速度が実用上問題となることはなく仕様が固まり実行効率優先の高速な実装に移れば他の環境での懸念もないだろう。またSecuremarkの再帰数制限はパーサーコンビネーターの使用による再帰的関数呼び出しに対する実装方式依存の制限であるため計算量と無関係であり再帰的関数呼び出しが生じないよう書き換えれば再帰数制限もない。従ってCommonMarkは再帰上限数と最悪計算量が一致し再帰上限数32回と最悪計算量32nが一致するがSecuremarkの最悪計算量は再帰上限数が100回だろうと100万回だろうと6n固定である。SecuremarkをCommonMarkのような再帰数制限のない実装に変換することは設計上および理論的に何の問題もないがCommonMarkをSecuremarkのような正常な文脈依存言語解析器に変更することは現在の異常な解析規則の破壊的変更による修正なしに不可能である。具体的には二重リンク`[[]()]()`を解析するときCommonMarkはバックトラックと計算量を最小化すべく文脈自由構文解析器として設計されているためリンク構文内をリンク構文が定義されていない異なる文脈として解析せず外側のリンク構文の解析を破棄して内側のみリンク構文として解析するがSecuremarkは文脈依存構文解析器とし設計されているためリンク構文内にリンク構文が定義されておらず外側のみリンクとして解析し他のMarkdown構文解析器もこのように解析しなければならない(ここでCommonMarkはリンク構文`[]()`のバックトラック除去ひいては文脈自由化に角括弧部分`[]`に対しては成功したが丸括弧部分`()`に対しては失敗したことで最悪計算量が指数計算量ないし32nに悪化した。リンク構文を本来通り文脈依存構文として解析すればリンク構文の最悪計算量が2nとなり角括弧部分に限っては1nから2nに悪化するが丸括弧部分は32nから2nに著しく改善する。ここがCommonMarkの根本的な欠陥と失敗が最も明瞭に表出している部分である)。この問題はイメージ構文においてさらに顕著でありリンク構文と同じ問題が正当な表現`![![]()]()`で発生しさらにHTMLのaltはプレーンテキストとして表示されるためMarkdownのaltもプレーンテキストとしてそのまま表示されなければならないにもかかわらず文脈を一致させ再帰的バックトラックを防ぐためにMarkdown文字列として解析しaltに`*a*`と書かれたものを`a`に不正に変換して表示する。無論新しい文脈依存構文を追加する場合も同じ制約が永遠についてまわり構文内文字列をMarkdownとして解析する文脈依存構文においてこの制約を破ると最悪計算量が32\*2^mないし32^mで指数関数的に増加する。すなわちCommonMarkは文脈依存構文を追加すると最悪計算量が32\*2^mないし32^mで指数関数的に悪化するという拡張性の致命的欠陥が存在する。こんな最悪計算量が32^mで組み合わせ爆発する欠陥言語を拡張できるわけがないことはもはや明白である。また大多数のプログラミング言語を見ても明らかなように文脈依存言語は構文内で使用可能な構文を定義しその他の構文は使用できず例外処理するのが通常でありCommonMarkのように本来使用不能な構文を外側の構文を無効化して使用可能に変える異常な言語はほとんどの人間はCommonMark以外に見たことがないだろう。ほぼすべての人間において他のすべての言語が同じ一貫した規則を持ち同じ規則で統一的に使用できるのに対してCommonMarkだけが他と異なる異常な挙動をして使用者に認知的負荷をかけるのである。破壊的変更を避けるため旧構文だけ従来通り文脈自由構文として解析し新構文を文脈依存構文として解析すればキメラ的な非常に不自然かつ歪で一貫性のない解析規則によりCommonMarkという一つの言語の中だけでもユーザーを混乱させるものとなり旧構文で使用した苦肉の策を不必要に新構文でも使用して一貫させれば文脈依存言語なのに文脈自由言語の苦肉の策の解析規則で解析されるこれもまたキメラ的な非常に不自然かつ理論的に設計ミスが明白で実用的にも認知的負荷の高い言語となる。正しく設計された言語と解析器にはありえないこのような解析規則の根本的不整合はその不整合の存在そのものが言語と解析器が誤った設計による失敗作であることを証明しており不整合が存在する限りその不整合により自らが失敗作であることを宣言し続けることになる。CommonMarkとはそういう失敗した言語と解析器なのである。このようにCommonMarkは新構文だけまたは解析器だけ文脈依存に変更しても理論的齟齬が解析結果と使用感の不自然さと違和感に明白に表れるためCommonMarkが失敗した言語である事実は到底隠し切れるものではない。Markdownはもはや負債以外の何物でもないCommonMarkの異常な解析規則を捨てて素直な文脈依存構文言語として新しい仕様を作り直すのが賢明である。
299
- 文脈依存言語を再帰的バックトラックなしで解析可能な方法は2つある。一つは解釈を予言的に決定する方法、もう一つは予備的または中間的その他事前の解析結果に対する解釈を事後に決定する方法である。前者は構文を峻別するための制約が強く後者は共通構造の適切な設計が必要でありいずれも再帰的バックトラックを防ぐために未終端の構文も受理する必要がある。しかし予言的解析は類似の異文脈構文へのバックトラックが不可能になるため共通構造についての事前解析結果のような追加情報を利用できるのでなければ類似の異文脈構文の定義が不可能になる。また共通構造をバックトラックなしで解析するにはそのための言語設計が必要であることに変わりなく任意の文字列を使用可能である必要があるURL、コード、数式などに含まれる任意の文字列が他の構文と文脈で解釈される際に共通構造を破壊するためこのような文字列を構造的に決定的に解釈する基本構造(バックトラック可能だが入力に対する解析結果がすべての文脈で構造的に共通すなわち決定的でなければならない。構文が解析されない場合も構文全体が包含されれば問題ない)を共通構造に定義しなければ構造的共通化は不可能であり分離構造は終端不要な開放可能構文としての予言的構文でなければバックトラックが不可避となる。共通構造の事前解析は一見すると最悪計算量を2nに削減できるように見えるが実際には共通構造をバックトラックなしで解析することが元の言語より容易にはなっても依然として難しくバックトラックなしで解析できたとしてもすべての解析ひいては平均計算量が+1nされるため平均的にはむしろ計算量を悪化させる方法であり仮に最悪計算量32nを事前解析により2nに抑えられたとしても平均計算量が1nならば平均計算量が2nに倍加し実行性能が半減および実行コストが倍加するため明らかに事前解析を行うべきでない。実用的なアルゴリズムの計算量において重要なのは最悪計算量がO(n^3)相当以下の実用的な計算量であるかと平均計算量でありその他は重要ではない。メモ化が空間計算量を代償に悪化させる最悪時間計算量線形化手法であるのに対して事前解析は平均時間計算量を代償に悪化させる最悪時間計算量線形化手法でありマーキング法は何も代償に悪化させない最悪時間計算量線形化手法である(無論ゼロコストではないが解析の他の部分やASTに要するコストより小さいため無視できる)。なおマーキング法を使用するSecuremarkは本来の構文解析と共通構造解析を統合し同時解析することで計算量の増加なく共通構造解析を行い共通構造を利用して最悪時間計算量を指数計算量から6nへ削減している。
299
+ 文脈依存言語を再帰的バックトラックなしで解析可能な方法は2つある。一つは解釈を予言的に決定する方法、もう一つは予備的または中間的その他事前の解析結果に対する解釈を事後に決定する方法である。前者は構文を峻別するための制約が強く後者は共通構造の適切な設計が必要でありいずれも再帰的バックトラックを防ぐために未終端の構文も受理する必要がある。しかし予言的解析は類似の異文脈構文へのバックトラックが不可能になるため共通構造についての事前解析結果のような追加情報を利用できるのでなければ類似の異文脈構文の定義が不可能になる。また共通構造をバックトラックなしで解析するにはそのための言語設計が必要であることに変わりなく任意の文字列を使用可能である必要があるURL、コード、数式などに含まれる任意の文字列が他の構文と文脈で解釈される際に共通構造を破壊するためこのような文字列を構造的に決定的に解釈する基本構造(バックトラック可能だが入力に対する解析結果がすべての文脈で構造的に共通すなわち決定的でなければならない。構文が解析されない場合も構文全体が包含されれば問題ない)を共通構造に定義しなければ構造的共通化は不可能であり分離構造は終端不要な開放可能構文としての予言的構文でなければバックトラックが不可避となる。共通構造の事前解析は一見すると最悪計算量を2nに削減できるように見えるが実際には共通構造をバックトラックなしで解析することが元の言語より容易にはなっても依然として難しくバックトラックなしで解析できたとしてもすべての解析ひいては平均計算量が+1nされるため平均的にはむしろ計算量を悪化させる方法であり仮に最悪計算量32nを事前解析により2nに抑えられたとしても平均計算量が1nならば平均計算量が2nに倍加し実行性能が半減および実行コストが倍加するため明らかに事前解析を行うべきでない。実用的なアルゴリズムの計算量において重要なのは最悪計算量がO(n^3)相当以下の実用的な計算量であるかと平均計算量でありその他は重要ではない。メモ化が空間計算量を代償に悪化させる最悪時間計算量線形化手法であるのに対して事前解析は平均時間計算量を代償に悪化させる最悪時間計算量線形化手法でありマーキング法は何も代償に悪化させない最悪時間計算量線形化手法である(無論ゼロコストではないが解析の他の部分やASTに要するコストより小さいため無視できる。空間計算量は実際にはASTにより容易に数倍になりメモリ使用量は入力サイズと並列数に制約されるため空間計算量自体はさほど重要ではなく空間計算量を増加させる処理により生じる時間オーバーヘッドのほうが本質的に重要となる。メモ化が常時記録かつ実データ記録ゆえデータ数もデータサイズも大きいのに対してマーキング法は失敗時記録かつフラグのみ記録ゆえデータ数もデータサイズも小さいことでオーバーヘッドが最小化されバックトラック率の低い入力が大多数を占める場合の平均解析速度が高速化される。平均性能すなわち重要指標が向上するならばその他の指標は許容範囲内で悪化させることができ不要な指標値を必要な指標値に変換できるならばそうしなければならない)。なおマーキング法を使用するSecuremarkは本来の構文解析と共通構造解析を統合し同時解析することで計算量の増加なく共通構造解析を行い共通構造を利用して最悪時間計算量を指数計算量から6nへ削減している。
300
300
 
301
301
  ### 実行性能
302
302
 
package/dist/index.js CHANGED
@@ -1,4 +1,4 @@
1
- /*! securemark v0.295.9 https://github.com/falsandtru/securemark | (c) 2017, falsandtru | UNLICENSED License */
1
+ /*! securemark v0.296.0 https://github.com/falsandtru/securemark | (c) 2017, falsandtru | UNLICENSED License */
2
2
  (function webpackUniversalModuleDefinition(root, factory) {
3
3
  if(typeof exports === 'object' && typeof module === 'object')
4
4
  module.exports = factory(require("Prism"), require("DOMPurify"));
@@ -4387,9 +4387,7 @@ Object.defineProperty(exports, "__esModule", ({
4387
4387
  value: true
4388
4388
  }));
4389
4389
  exports.escape = exports.invisibleHTMLEntityNames = exports.normalize = void 0;
4390
- const parser_1 = __webpack_require__(605);
4391
- const context_1 = __webpack_require__(8669);
4392
- const htmlentity_1 = __webpack_require__(470);
4390
+ const dom_1 = __webpack_require__(394);
4393
4391
  const UNICODE_REPLACEMENT_CHARACTER = '\uFFFD';
4394
4392
  function normalize(source) {
4395
4393
  return sanitize(format(source));
@@ -4398,7 +4396,7 @@ exports.normalize = normalize;
4398
4396
  function format(source) {
4399
4397
  return source.replace(/\r\n?|[\u2028\u2029]/g, '\n');
4400
4398
  }
4401
- const invalid = new RegExp([/(?![\t\r\n])[\x00-\x1F\x7F]/g.source, /(?!\u200D)[\u2006\u200B-\u200F\u202A-\u202F\u2060\uFEFF]/g.source
4399
+ const invalid = new RegExp([/(?![\t\r\n])[\x00-\x1F\x7F]/g.source, /(?![\u200C\u200D])[\u2006\u200B-\u200F\u202A-\u202F\u2060\uFEFF]/g.source
4402
4400
  // 後読みが重い
4403
4401
  ///(?<![\u1820\u1821])\u180E/g.source,
4404
4402
  ///[\uD800-\uDBFF](?![\uDC00-\uDFFF])|(?<![\uD800-\uDBFF])[\uDC00-\uDFFF]/g.source,
@@ -4409,8 +4407,13 @@ function sanitize(source) {
4409
4407
  // https://dev.w3.org/html5/html-author/charref
4410
4408
  // https://en.wikipedia.org/wiki/Whitespace_character
4411
4409
  exports.invisibleHTMLEntityNames = ['Tab', 'NewLine', 'NonBreakingSpace', 'nbsp', 'shy', 'ensp', 'emsp', 'emsp13', 'emsp14', 'numsp', 'puncsp', 'ThinSpace', 'thinsp', 'VeryThinSpace', 'hairsp', 'ZeroWidthSpace', 'NegativeVeryThinSpace', 'NegativeThinSpace', 'NegativeMediumSpace', 'NegativeThickSpace', 'zwj', 'zwnj', 'lrm', 'rlm', 'MediumSpace', 'NoBreak', 'ApplyFunction', 'af', 'InvisibleTimes', 'it', 'InvisibleComma', 'ic'];
4410
+ const parser = (el => entity => {
4411
+ if (entity === '&NewLine;') return entity;
4412
+ el.innerHTML = entity;
4413
+ return el.textContent;
4414
+ })((0, dom_1.html)('span'));
4412
4415
  const unreadableEscapeHTMLEntityNames = exports.invisibleHTMLEntityNames.filter(name => !['Tab', 'NewLine', 'NonBreakingSpace', 'nbsp', 'zwj', 'zwnj'].includes(name));
4413
- const unreadableEscapeCharacters = unreadableEscapeHTMLEntityNames.map(name => (0, htmlentity_1.unsafehtmlentity)((0, parser_1.input)(`&${name};`, new context_1.Context())).head.value);
4416
+ const unreadableEscapeCharacters = unreadableEscapeHTMLEntityNames.map(name => parser(`&${name};`));
4414
4417
  const unreadableEscapeCharacter = new RegExp(`[${unreadableEscapeCharacters.join('')}]`, 'g');
4415
4418
  // https://www.pandanoir.info/entry/2018/03/11/193000
4416
4419
  // http://anti.rosx.net/etc/memo/002_space.html
@@ -4421,7 +4424,7 @@ const unreadableSpecialCharacters = (/* unused pure expression or super */ null
4421
4424
  // ZERO WIDTH SPACE
4422
4425
  '\u200B',
4423
4426
  // ZERO WIDTH NON-JOINER
4424
- '\u200C',
4427
+ //'\u200C',
4425
4428
  // ZERO WIDTH JOINER
4426
4429
  //'\u200D',
4427
4430
  // LEFT-TO-RIGHT MARK
@@ -6238,7 +6241,7 @@ const inline_1 = __webpack_require__(7973);
6238
6241
  const visibility_1 = __webpack_require__(6364);
6239
6242
  const util_1 = __webpack_require__(4992);
6240
6243
  const dom_1 = __webpack_require__(394);
6241
- exports.annotation = (0, combinator_1.lazy)(() => (0, combinator_1.constraint)(128 /* State.annotation */, (0, combinator_1.surround)('((', (0, combinator_1.precedence)(1, (0, combinator_1.state)(128 /* State.annotation */, (0, visibility_1.trimBlankStart)((0, combinator_1.some)((0, combinator_1.union)([inline_1.inline]), ')', [[')', 1]])))), '))', false, [2, 1 | 4 /* Backtrack.common */, 3 | 128 /* Backtrack.doublebracket */], ([, ns], context) => context.linebreak === 0 ? new parser_1.List([new parser_1.Node((0, dom_1.html)('sup', {
6244
+ exports.annotation = (0, combinator_1.lazy)(() => (0, combinator_1.constraint)(128 /* State.annotation */, (0, combinator_1.surround)('((', (0, combinator_1.precedence)(1, (0, combinator_1.state)(128 /* State.annotation */, (0, visibility_1.beforeNonblank)((0, combinator_1.some)((0, combinator_1.union)([inline_1.inline]), ')', [[')', 1]])))), '))', false, [2, 1 | 4 /* Backtrack.common */, 3 | 128 /* Backtrack.doublebracket */], ([, ns], context) => context.linebreak === 0 ? new parser_1.List([new parser_1.Node((0, dom_1.html)('sup', {
6242
6245
  class: 'annotation'
6243
6246
  }, [(0, dom_1.html)('span', (0, dom_1.defrag)((0, util_1.unwrap)((0, visibility_1.trimBlankNodeEnd)(ns))))]))]) : undefined, (_, context) => {
6244
6247
  const {
@@ -7265,7 +7268,7 @@ const combinator_1 = __webpack_require__(3484);
7265
7268
  const source_1 = __webpack_require__(8745);
7266
7269
  const util_1 = __webpack_require__(4992);
7267
7270
  const dom_1 = __webpack_require__(394);
7268
- exports.unsafehtmlentity = (0, combinator_1.surround)((0, source_1.str)('&'), (0, source_1.str)(/[0-9A-Za-z]+/y), (0, source_1.str)(';'), false, [3 | 8 /* Backtrack.unescapable */], ([as, bs, cs]) => new parser_1.List([new parser_1.Node(parser(as.head.value + bs.head.value + cs.head.value), (0, node_1.isinvisibleHTMLEntityName)(bs.head.value) ? 1 /* Flag.invisible */ : 0 /* Flag.none */)]), ([as, bs]) => new parser_1.List([new parser_1.Node(as.head.value + (bs?.head?.value ?? ''))]));
7271
+ exports.unsafehtmlentity = (0, combinator_1.surround)((0, source_1.str)('&'), (0, source_1.str)(/[0-9A-Za-z]+/y), (0, source_1.str)(';'), false, [3 | 8 /* Backtrack.unescapable */], ([as, bs, cs]) => new parser_1.List([new parser_1.Node(parser(as.head.value + bs.head.value + cs.head.value), (0, node_1.isInvisibleHTMLEntityName)(bs.head.value) ? 1 /* Flag.invisible */ : 0 /* Flag.none */)]), ([as, bs]) => new parser_1.List([new parser_1.Node(as.head.value + (bs?.head?.value ?? ''))]));
7269
7272
  exports.htmlentity = (0, combinator_1.fmap)((0, combinator_1.union)([exports.unsafehtmlentity]), ([{
7270
7273
  value,
7271
7274
  flags
@@ -7355,7 +7358,7 @@ const optspec = {
7355
7358
  rel: ['nofollow']
7356
7359
  };
7357
7360
  Object.setPrototypeOf(optspec, null);
7358
- exports.textlink = (0, combinator_1.lazy)(() => (0, combinator_1.bind)((0, combinator_1.subsequence)([(0, combinator_1.constraint)(8 /* State.link */, (0, combinator_1.state)(251 /* State.linkers */, (0, combinator_1.dup)((0, combinator_1.surround)('[', (0, combinator_1.precedence)(1, (0, visibility_1.trimBlankStart)((0, combinator_1.some)((0, combinator_1.union)([inline_1.inline]), ']', [[']', 1]]))), ']', true, [3 | 4 /* Backtrack.common */ | 64 /* Backtrack.link */, 2 | 32 /* Backtrack.ruby */], ([, ns = new parser_1.List()], context) => {
7361
+ exports.textlink = (0, combinator_1.lazy)(() => (0, combinator_1.bind)((0, combinator_1.subsequence)([(0, combinator_1.constraint)(8 /* State.link */, (0, combinator_1.state)(251 /* State.linkers */, (0, combinator_1.dup)((0, combinator_1.surround)('[', (0, combinator_1.precedence)(1, (0, visibility_1.beforeNonblank)((0, combinator_1.some)((0, combinator_1.union)([inline_1.inline]), ']', [[']', 1]]))), ']', true, [3 | 4 /* Backtrack.common */ | 64 /* Backtrack.link */, 2 | 32 /* Backtrack.ruby */], ([, ns = new parser_1.List()], context) => {
7359
7362
  if (context.linebreak !== 0) {
7360
7363
  const head = context.position - context.range;
7361
7364
  return void (0, combinator_1.setBacktrack)(context, 2 | 64 /* Backtrack.link */ | 32 /* Backtrack.ruby */, head);
@@ -7595,15 +7598,20 @@ exports.media = (0, combinator_1.lazy)(() => (0, combinator_1.constraint)(4 /* S
7595
7598
  return ns;
7596
7599
  })), (0, combinator_1.dup)((0, combinator_1.surround)(/{(?![{}])/y, (0, combinator_1.precedence)(9, (0, combinator_1.inits)([link_1.uri, (0, combinator_1.some)(option)])), / ?}/y, false, [], undefined, ([as, bs]) => bs && as.import(bs).push(new parser_1.Node("\u0018" /* Command.Cancel */)) && as))]), nodes => nodes.length === 1 ? new parser_1.List([new parser_1.Node(new parser_1.List([new parser_1.Node('')])), nodes.delete(nodes.head)]) : new parser_1.List([new parser_1.Node(new parser_1.List([new parser_1.Node(nodes.head.value.foldl((acc, {
7597
7600
  value
7598
- }) => acc + value, ''))])), nodes.delete(nodes.last)])), ([{
7601
+ }) => acc + value, ''), nodes.head.value.head?.flags)])), nodes.delete(nodes.last)])), ([{
7599
7602
  value: [{
7600
- value: text
7603
+ value: text,
7604
+ flags
7601
7605
  }]
7602
7606
  }, {
7603
7607
  value: params
7604
7608
  }], context) => {
7605
- if (text && text.trimStart() === '') return;
7606
- text = text.trim();
7609
+ if (flags & 1 /* Flag.invisible */) return;
7610
+ if (text) {
7611
+ const tmp = text;
7612
+ text = text.trim();
7613
+ if (text === '' || text[0] !== tmp[0]) return;
7614
+ }
7607
7615
  (0, combinator_1.consume)(100, context);
7608
7616
  if (params.last.value === "\u0018" /* Command.Cancel */) {
7609
7617
  params.pop();
@@ -7693,7 +7701,7 @@ const source_1 = __webpack_require__(8745);
7693
7701
  const visibility_1 = __webpack_require__(6364);
7694
7702
  const util_1 = __webpack_require__(4992);
7695
7703
  const dom_1 = __webpack_require__(394);
7696
- exports.reference = (0, combinator_1.lazy)(() => (0, combinator_1.constraint)(64 /* State.reference */, (0, combinator_1.surround)((0, source_1.str)('[['), (0, combinator_1.precedence)(1, (0, combinator_1.state)(128 /* State.annotation */ | 64 /* State.reference */, (0, combinator_1.subsequence)([abbr, (0, visibility_1.trimBlankStart)((0, combinator_1.some)(inline_1.inline, ']', [[']', 1]]))]))), ']]', false, [2, 1 | 4 /* Backtrack.common */, 3 | 128 /* Backtrack.doublebracket */], ([, ns], context) => {
7704
+ exports.reference = (0, combinator_1.lazy)(() => (0, combinator_1.constraint)(64 /* State.reference */, (0, combinator_1.surround)((0, source_1.str)('[['), (0, combinator_1.precedence)(1, (0, combinator_1.state)(128 /* State.annotation */ | 64 /* State.reference */, (0, combinator_1.subsequence)([abbr, (0, visibility_1.beforeNonblank)((0, combinator_1.some)(inline_1.inline, ']', [[']', 1]]))]))), ']]', false, [2, 1 | 4 /* Backtrack.common */, 3 | 128 /* Backtrack.doublebracket */], ([, ns], context) => {
7697
7705
  const {
7698
7706
  position,
7699
7707
  range,
@@ -7976,12 +7984,9 @@ const bracket = (0, combinator_1.lazy)(() => (0, combinator_1.union)([(0, combin
7976
7984
  Object.defineProperty(exports, "__esModule", ({
7977
7985
  value: true
7978
7986
  }));
7979
- exports.isinvisibleHTMLEntityName = void 0;
7987
+ exports.isInvisibleHTMLEntityName = void 0;
7980
7988
  const normalize_1 = __webpack_require__(4490);
7981
- function isinvisibleHTMLEntityName(name) {
7982
- return normalize_1.invisibleHTMLEntityNames.includes(name);
7983
- }
7984
- exports.isinvisibleHTMLEntityName = isinvisibleHTMLEntityName;
7989
+ exports.isInvisibleHTMLEntityName = eval(['name => {', 'switch(name){', normalize_1.invisibleHTMLEntityNames.map(name => `case '${name}':`).join(''), 'return true;', 'default:', 'return false;', '}', '}'].join(''));
7985
7990
 
7986
7991
  /***/ },
7987
7992
 
@@ -8636,10 +8641,9 @@ const text = input => {
8636
8641
  case '\n':
8637
8642
  return new parser_1.List();
8638
8643
  default:
8639
- const flags = source[position + 1].trimStart() ? 0 /* Flag.none */ : 1 /* Flag.invisible */;
8640
8644
  (0, combinator_1.consume)(1, context);
8641
8645
  context.position += 1;
8642
- return new parser_1.List([new parser_1.Node(source.slice(position + 1, context.position), flags)]);
8646
+ return new parser_1.List([new parser_1.Node(source.slice(position + 1, context.position))]);
8643
8647
  }
8644
8648
  case '\r':
8645
8649
  (0, combinator_1.consume)(-1, context);
@@ -8659,9 +8663,7 @@ const text = input => {
8659
8663
  context.position += i - 1;
8660
8664
  const linestart = position === 0 || source[position - 1] === '\n';
8661
8665
  if (position === context.position || s && !linestart || lineend) return new parser_1.List();
8662
- const str = source.slice(position, context.position);
8663
- const flags = str.length === 1 && str.trimStart() === '' ? 1 /* Flag.invisible */ : 0 /* Flag.none */;
8664
- return new parser_1.List([new parser_1.Node(str, flags)]);
8666
+ return new parser_1.List([new parser_1.Node(source.slice(position, context.position))]);
8665
8667
  }
8666
8668
  };
8667
8669
  exports.text = text;
@@ -9034,18 +9036,18 @@ exports.stringify = stringify;
9034
9036
  Object.defineProperty(exports, "__esModule", ({
9035
9037
  value: true
9036
9038
  }));
9037
- exports.trimBlankNodeEnd = exports.trimBlankEnd = exports.trimBlankStart = exports.trimBlank = exports.isTightNodeStart = exports.isLooseNodeStart = exports.beforeNonblank = exports.blankWith = exports.afterNonblank = exports.visualize = void 0;
9039
+ exports.trimBlankNodeEnd = exports.trimBlankEnd = exports.trimBlank = exports.isTightNodeStart = exports.isLooseNodeStart = exports.beforeNonblank = exports.blankWith = exports.afterNonblank = exports.visualize = void 0;
9038
9040
  const parser_1 = __webpack_require__(605);
9039
9041
  const combinator_1 = __webpack_require__(3484);
9040
9042
  const normalize_1 = __webpack_require__(4490);
9041
- var blank;
9042
- (function (blank) {
9043
- blank.line = new RegExp(/((?:^|\n)[^\S\n]*(?=\S))((?:[^\S\n]|\\(?=$|\s)|&IHN;|<wbr ?>)+(?=$|\n))/g.source.replace('IHN', `(?:${normalize_1.invisibleHTMLEntityNames.join('|')})`), 'g');
9044
- blank.start = new RegExp(/(?:[^\S\n]|\\(?=$|\s)|&IHN;|<wbr ?>)+/y.source.replace('IHN', `(?:${normalize_1.invisibleHTMLEntityNames.join('|')})`), 'y');
9045
- blank.unit = new RegExp(/(?:[^\S\n]|\\(?=$|\s)|&IHN;|<wbr ?>)/y.source.replace('IHN', `(?:${normalize_1.invisibleHTMLEntityNames.join('|')})`), 'y');
9046
- })(blank || (blank = {}));
9043
+ var invisible;
9044
+ (function (invisible) {
9045
+ invisible.line = new RegExp(/((?:^|\n)[^\S\n]*(?=\S))((?:[^\S\n]|\\(?=$|\s)|&IHN;|<wbr ?>)+(?=$|\n))/g.source.replace('IHN', `(?:${normalize_1.invisibleHTMLEntityNames.join('|')})`), 'g');
9046
+ invisible.start = new RegExp(/(?:[^\S\n]|\\(?=$|\s)|&IHN;|<wbr ?>)+/y.source.replace('IHN', `(?:${normalize_1.invisibleHTMLEntityNames.join('|')})`), 'y');
9047
+ invisible.unit = new RegExp(/(?:[^\S\n]|\\(?=$|\s)|&IHN;|<wbr ?>)/y.source.replace('IHN', `(?:${normalize_1.invisibleHTMLEntityNames.join('|')})`), 'y');
9048
+ })(invisible || (invisible = {}));
9047
9049
  function visualize(parser) {
9048
- return (0, combinator_1.convert)(source => source.replace(blank.line, `$1${"\u001B" /* Command.Escape */}$2`), parser);
9050
+ return (0, combinator_1.convert)(source => source.replace(invisible.line, `$1${"\u001B" /* Command.Escape */}$2`), parser);
9049
9051
  }
9050
9052
  exports.visualize = visualize;
9051
9053
  exports.afterNonblank = nonblankWith('');
@@ -9079,7 +9081,7 @@ function isTightStart(input) {
9079
9081
  case '\n':
9080
9082
  return false;
9081
9083
  default:
9082
- const reg = blank.unit;
9084
+ const reg = invisible.unit;
9083
9085
  reg.lastIndex = position;
9084
9086
  return !reg.test(source);
9085
9087
  }
@@ -9106,16 +9108,17 @@ function isVisible({
9106
9108
  value: node,
9107
9109
  flags
9108
9110
  }, strpos) {
9109
- if (strpos === undefined || typeof node !== 'string') return !(flags & 1 /* Flag.invisible */);
9110
- const char = node && node[strpos && node.length + strpos];
9111
- switch (char) {
9111
+ if (flags & 1 /* Flag.invisible */) return false;
9112
+ if (typeof node !== 'string') return true;
9113
+ const str = node && strpos !== undefined ? node[strpos >= 0 ? strpos : node.length + strpos] : node;
9114
+ switch (str) {
9112
9115
  case '':
9113
9116
  case ' ':
9114
9117
  case '\t':
9115
9118
  case '\n':
9116
9119
  return false;
9117
9120
  default:
9118
- return char.trimStart() !== '';
9121
+ return str.trimStart() !== '';
9119
9122
  }
9120
9123
  }
9121
9124
  function trimBlank(parser) {
@@ -9132,14 +9135,13 @@ function trimBlankStart(parser) {
9132
9135
  position
9133
9136
  } = context;
9134
9137
  if (position === source.length) return;
9135
- const reg = blank.start;
9138
+ const reg = invisible.start;
9136
9139
  reg.lastIndex = position;
9137
9140
  reg.test(source);
9138
9141
  context.position = reg.lastIndex || position;
9139
9142
  return context.position === source.length ? new parser_1.List() : parser(input);
9140
9143
  });
9141
9144
  }
9142
- exports.trimBlankStart = trimBlankStart;
9143
9145
  function trimBlankEnd(parser) {
9144
9146
  return (0, combinator_1.fmap)(parser, trimBlankNodeEnd);
9145
9147
  }
@@ -9164,14 +9166,17 @@ exports.trimBlankEnd = trimBlankEnd;
9164
9166
  // return nodes;
9165
9167
  //}
9166
9168
  function trimBlankNodeEnd(nodes) {
9167
- const skip = typeof nodes.last?.value === 'object' && nodes.last.value.className === 'indexer';
9168
- for (let node = skip ? nodes.last?.prev : nodes.last; node && !isVisible(node, -1);) {
9169
- if (typeof node.value === 'string') {
9169
+ const skip = nodes.last && ~nodes.last.flags & 1 /* Flag.invisible */ && typeof nodes.last.value === 'object' ? nodes.last.value.className === 'indexer' : false;
9170
+ for (let node = skip ? nodes.last?.prev : nodes.last; node;) {
9171
+ const visible = ~node.flags & 1 /* Flag.invisible */;
9172
+ if (visible && typeof node.value === 'string') {
9170
9173
  const str = node.value.trimEnd();
9171
9174
  if (str.length > 0) {
9172
9175
  node.value = str;
9173
9176
  break;
9174
9177
  }
9178
+ } else if (visible) {
9179
+ break;
9175
9180
  }
9176
9181
  const target = node;
9177
9182
  node = node.prev;
package/package.json CHANGED
@@ -1,6 +1,6 @@
1
1
  {
2
2
  "name": "securemark",
3
- "version": "0.295.9",
3
+ "version": "0.296.0",
4
4
  "description": "Secure markdown renderer working on browsers for user input data.",
5
5
  "private": false,
6
6
  "homepage": "https://github.com/falsandtru/securemark",
@@ -69,6 +69,8 @@ export class Context {
69
69
  // Objectの内部実装を利用する。
70
70
  // 探索木を直接使用する場合は探索速度が重要で挿入は相対的に少なく削除は不要かつ不確実であるため
71
71
  // AVL木が適当と思われる。
72
+ // メモリの局所性を得るために木ごとに最初の数十から数百byte分のノードをプールしノードが不足した場合は
73
+ // 使い捨てノードを追加またはテーブルに移行するとよいだろう。
72
74
  // 最大セグメントサイズ10KB内で探索コストが平均実行性能を圧迫するほど大きくなるとは考えにくいが
73
75
  // 探索コストを減らすにはバックトラック位置数が規定数を超えた場合一定区間ごとに探索木を分割する方法が考えられる。
74
76
  // 10KBの入力すべてを保持する探索木を1024文字ごとに分割するために必要なテーブルサイズは64bit*98=784byteとなる。
@@ -1,6 +1,4 @@
1
- import { input } from '../../combinator/data/parser';
2
- import { Context } from '../context';
3
- import { unsafehtmlentity } from '../inline/htmlentity';
1
+ import { html } from 'typed-dom/dom';
4
2
 
5
3
  const UNICODE_REPLACEMENT_CHARACTER = '\uFFFD';
6
4
  assert(UNICODE_REPLACEMENT_CHARACTER.trim());
@@ -15,7 +13,7 @@ function format(source: string): string {
15
13
 
16
14
  const invalid = new RegExp([
17
15
  /(?![\t\r\n])[\x00-\x1F\x7F]/g.source,
18
- /(?!\u200D)[\u2006\u200B-\u200F\u202A-\u202F\u2060\uFEFF]/g.source,
16
+ /(?![\u200C\u200D])[\u2006\u200B-\u200F\u202A-\u202F\u2060\uFEFF]/g.source,
19
17
  // 後読みが重い
20
18
  ///(?<![\u1820\u1821])\u180E/g.source,
21
19
  ///[\uD800-\uDBFF](?![\uDC00-\uDFFF])|(?<![\uD800-\uDBFF])[\uDC00-\uDFFF]/g.source,
@@ -60,6 +58,11 @@ export const invisibleHTMLEntityNames = [
60
58
  'InvisibleComma',
61
59
  'ic',
62
60
  ] as readonly string[];
61
+ const parser = (el => (entity: string): string => {
62
+ if (entity === '&NewLine;') return entity;
63
+ el.innerHTML = entity;
64
+ return el.textContent!;
65
+ })(html('span'));
63
66
  const unreadableEscapeHTMLEntityNames = invisibleHTMLEntityNames.filter(name => ![
64
67
  'Tab',
65
68
  'NewLine',
@@ -69,7 +72,7 @@ const unreadableEscapeHTMLEntityNames = invisibleHTMLEntityNames.filter(name =>
69
72
  'zwnj',
70
73
  ].includes(name));
71
74
  const unreadableEscapeCharacters = unreadableEscapeHTMLEntityNames
72
- .map(name => unsafehtmlentity(input(`&${name};`, new Context()))!.head!.value);
75
+ .map(name => parser(`&${name};`));
73
76
  assert(unreadableEscapeCharacters.length === unreadableEscapeHTMLEntityNames.length);
74
77
  assert(unreadableEscapeCharacters.every(c => c.length === 1));
75
78
  const unreadableEscapeCharacter = new RegExp(`[${unreadableEscapeCharacters.join('')}]`, 'g');
@@ -84,7 +87,7 @@ const unreadableSpecialCharacters = [
84
87
  // ZERO WIDTH SPACE
85
88
  '\u200B',
86
89
  // ZERO WIDTH NON-JOINER
87
- '\u200C',
90
+ //'\u200C',
88
91
  // ZERO WIDTH JOINER
89
92
  //'\u200D',
90
93
  // LEFT-TO-RIGHT MARK
@@ -19,7 +19,10 @@ describe('Unit: parser/inline/annotation', () => {
19
19
  assert.deepStrictEqual(inspect(parser, input('(([))', new Context())), undefined);
20
20
  assert.deepStrictEqual(inspect(parser, input('(([%))', new Context())), undefined);
21
21
  assert.deepStrictEqual(inspect(parser, input('(( ))', new Context())), undefined);
22
- assert.deepStrictEqual(inspect(parser, input('(( (a', new Context())), undefined);
22
+ assert.deepStrictEqual(inspect(parser, input('(( a))', new Context())), undefined);
23
+ assert.deepStrictEqual(inspect(parser, input('(( a ))', new Context())), undefined);
24
+ assert.deepStrictEqual(inspect(parser, input('((\\ a))', new Context())), undefined);
25
+ assert.deepStrictEqual(inspect(parser, input('((<wbr>a))', new Context())), undefined);
23
26
  assert.deepStrictEqual(inspect(parser, input('((\n))', new Context())), undefined);
24
27
  assert.deepStrictEqual(inspect(parser, input('((\na))', new Context())), undefined);
25
28
  assert.deepStrictEqual(inspect(parser, input('((\\\na))', new Context())), undefined);
@@ -35,10 +38,6 @@ describe('Unit: parser/inline/annotation', () => {
35
38
  });
36
39
 
37
40
  it('basic', () => {
38
- assert.deepStrictEqual(inspect(parser, input('(( a))', new Context())), [['<sup class="annotation"><span>a</span></sup>'], '']);
39
- assert.deepStrictEqual(inspect(parser, input('(( a ))', new Context())), [['<sup class="annotation"><span>a</span></sup>'], '']);
40
- assert.deepStrictEqual(inspect(parser, input('((\\ a))', new Context())), [['<sup class="annotation"><span>a</span></sup>'], '']);
41
- assert.deepStrictEqual(inspect(parser, input('((<wbr>a))', new Context())), [['<sup class="annotation"><span>a</span></sup>'], '']);
42
41
  assert.deepStrictEqual(inspect(parser, input('((a))', new Context())), [['<sup class="annotation"><span>a</span></sup>'], '']);
43
42
  assert.deepStrictEqual(inspect(parser, input('((a ))', new Context())), [['<sup class="annotation"><span>a</span></sup>'], '']);
44
43
  assert.deepStrictEqual(inspect(parser, input('((a ))', new Context())), [['<sup class="annotation"><span>a</span></sup>'], '']);
@@ -3,14 +3,14 @@ import { State, Backtrack } from '../context';
3
3
  import { List, Node } from '../../combinator/data/parser';
4
4
  import { union, some, precedence, state, constraint, surround, setBacktrack, lazy } from '../../combinator';
5
5
  import { inline } from '../inline';
6
- import { trimBlankStart, trimBlankNodeEnd } from '../visibility';
6
+ import { beforeNonblank, trimBlankNodeEnd } from '../visibility';
7
7
  import { unwrap } from '../util';
8
8
  import { html, defrag } from 'typed-dom/dom';
9
9
 
10
10
  export const annotation: AnnotationParser = lazy(() => constraint(State.annotation, surround(
11
11
  '((',
12
12
  precedence(1, state(State.annotation,
13
- trimBlankStart(some(union([inline]), ')', [[')', 1]])))),
13
+ beforeNonblank(some(union([inline]), ')', [[')', 1]])))),
14
14
  '))',
15
15
  false,
16
16
  [2, 1 | Backtrack.common, 3 | Backtrack.doublebracket],
@@ -1,7 +1,7 @@
1
1
  import { HTMLEntityParser, UnsafeHTMLEntityParser } from '../inline';
2
2
  import { Backtrack } from '../context';
3
3
  import { List, Node } from '../../combinator/data/parser';
4
- import { Flag, isinvisibleHTMLEntityName } from '../node';
4
+ import { Flag, isInvisibleHTMLEntityName } from '../node';
5
5
  import { union, surround, fmap } from '../../combinator';
6
6
  import { str } from '../source';
7
7
  import { invalid } from '../util';
@@ -15,7 +15,7 @@ export const unsafehtmlentity: UnsafeHTMLEntityParser = surround(
15
15
  new List([
16
16
  new Node(
17
17
  parser(as.head!.value + bs.head!.value + cs.head!.value),
18
- isinvisibleHTMLEntityName(bs.head!.value) ? Flag.invisible : Flag.none)
18
+ isInvisibleHTMLEntityName(bs.head!.value) ? Flag.invisible : Flag.none)
19
19
  ]),
20
20
  ([as, bs]) =>
21
21
  new List([new Node(as.head!.value + (bs?.head?.value ?? ''))]));
@@ -76,10 +76,15 @@ describe('Unit: parser/inline/link', () => {
76
76
  assert.deepStrictEqual(inspect(parser, input('[ ]{ }', new Context())), undefined);
77
77
  assert.deepStrictEqual(inspect(parser, input('[ ]{b}', new Context())), undefined);
78
78
  assert.deepStrictEqual(inspect(parser, input('[ ]{b}', new Context())), undefined);
79
+ assert.deepStrictEqual(inspect(parser, input('[ a]{b}', new Context())), undefined);
80
+ assert.deepStrictEqual(inspect(parser, input('[ a ]{b}', new Context())), undefined);
81
+ assert.deepStrictEqual(inspect(parser, input('[\\ a]{b}', new Context())), undefined);
82
+ assert.deepStrictEqual(inspect(parser, input('[ \\ a]{b}', new Context())), undefined);
79
83
  assert.deepStrictEqual(inspect(parser, input('[\n]{b}', new Context())), undefined);
80
84
  assert.deepStrictEqual(inspect(parser, input('[\\ ]{b}', new Context())), undefined);
81
85
  assert.deepStrictEqual(inspect(parser, input('[\\\n]{b}', new Context())), undefined);
82
86
  assert.deepStrictEqual(inspect(parser, input('[&Tab;]{b}', new Context())), undefined);
87
+ assert.deepStrictEqual(inspect(parser, input('[&zwj;]{b}', new Context())), undefined);
83
88
  assert.deepStrictEqual(inspect(parser, input('[[]{b}', new Context())), undefined);
84
89
  assert.deepStrictEqual(inspect(parser, input('[]]{b}', new Context())), undefined);
85
90
  assert.deepStrictEqual(inspect(parser, input('[a]{}', new Context())), undefined);
@@ -131,10 +136,6 @@ describe('Unit: parser/inline/link', () => {
131
136
  assert.deepStrictEqual(inspect(parser, input('[]{^/b}', new Context({ host: new URL('/0.a0', location.origin) }))), [[`<a class="url" href="/b">^/b</a>`], '']);
132
137
  assert.deepStrictEqual(inspect(parser, input('[]{^/b}', new Context({ host: new URL('/0.0', location.origin) }))), [[`<a class="url" href="/0.0/b">^/b</a>`], '']);
133
138
  assert.deepStrictEqual(inspect(parser, input('[]{^/b}', new Context({ host: new URL('/0.0,0.0,0z', location.origin) }))), [[`<a class="url" href="/0.0,0.0,0z/b">^/b</a>`], '']);
134
- assert.deepStrictEqual(inspect(parser, input('[ a]{b}', new Context())), [['<a class="link" href="b">a</a>'], '']);
135
- assert.deepStrictEqual(inspect(parser, input('[ a ]{b}', new Context())), [['<a class="link" href="b">a</a>'], '']);
136
- assert.deepStrictEqual(inspect(parser, input('[\\ a]{b}', new Context())), [['<a class="link" href="b">a</a>'], '']);
137
- assert.deepStrictEqual(inspect(parser, input('[ \\ a]{b}', new Context())), [['<a class="link" href="b">a</a>'], '']);
138
139
  assert.deepStrictEqual(inspect(parser, input('[a ]{b}', new Context())), [['<a class="link" href="b">a</a>'], '']);
139
140
  assert.deepStrictEqual(inspect(parser, input('[a ]{b}', new Context())), [['<a class="link" href="b">a</a>'], '']);
140
141
  assert.deepStrictEqual(inspect(parser, input('[a]{b}', new Context())), [['<a class="link" href="b">a</a>'], '']);
@@ -5,7 +5,7 @@ import { union, inits, sequence, subsequence, some, consume, precedence, state,
5
5
  import { inline, media, shortmedia } from '../inline';
6
6
  import { attributes } from './html';
7
7
  import { str } from '../source';
8
- import { trimBlankStart, trimBlankNodeEnd } from '../visibility';
8
+ import { beforeNonblank, trimBlankNodeEnd } from '../visibility';
9
9
  import { unwrap, invalid, stringify } from '../util';
10
10
  import { ReadonlyURL } from 'spica/url';
11
11
  import { html, define, defrag } from 'typed-dom/dom';
@@ -20,7 +20,7 @@ export const textlink: LinkParser.TextLinkParser = lazy(() => bind(
20
20
  constraint(State.link, state(State.linkers, dup(surround(
21
21
  '[',
22
22
  precedence(1,
23
- trimBlankStart(some(union([inline]), ']', [[']', 1]]))),
23
+ beforeNonblank(some(union([inline]), ']', [[']', 1]]))),
24
24
  ']',
25
25
  true,
26
26
  [3 | Backtrack.common | Backtrack.link, 2 | Backtrack.ruby],
@@ -41,10 +41,15 @@ describe('Unit: parser/inline/media', () => {
41
41
  assert.deepStrictEqual(inspect(parser, input('![ ]{}', new Context())), undefined);
42
42
  assert.deepStrictEqual(inspect(parser, input('![ ]{b}', new Context())), undefined);
43
43
  assert.deepStrictEqual(inspect(parser, input('![ ]{b}', new Context())), undefined);
44
+ assert.deepStrictEqual(inspect(parser, input('![ a]{b}', new Context())), undefined);
45
+ assert.deepStrictEqual(inspect(parser, input('![ a ]{b}', new Context())), undefined);
46
+ assert.deepStrictEqual(inspect(parser, input('![\\ a]{b}', new Context())), undefined);
47
+ assert.deepStrictEqual(inspect(parser, input('![ \\ a]{b}', new Context())), undefined);
44
48
  assert.deepStrictEqual(inspect(parser, input('![\n]{b}', new Context())), undefined);
45
49
  assert.deepStrictEqual(inspect(parser, input('![\\ ]{b}', new Context())), undefined);
46
50
  assert.deepStrictEqual(inspect(parser, input('![\\\n]{b}', new Context())), undefined);
47
51
  assert.deepStrictEqual(inspect(parser, input('![&Tab;]{b}', new Context())), undefined);
52
+ assert.deepStrictEqual(inspect(parser, input('![&zwj;]{b}', new Context())), undefined);
48
53
  assert.deepStrictEqual(inspect(parser, input('![&a;]{b}', new Context())), [['<a href="b" target="_blank"><img class="media" data-src="b" alt="&amp;a;"></a>'], '']);
49
54
  assert.deepStrictEqual(inspect(parser, input('![[]{b}', new Context())), undefined);
50
55
  assert.deepStrictEqual(inspect(parser, input('![]]{b}', new Context())), undefined);
@@ -79,8 +84,6 @@ describe('Unit: parser/inline/media', () => {
79
84
  assert.deepStrictEqual(inspect(parser, input('![]{?/../}', new Context())), [[`<a href="?/../" target="_blank"><img class="media" data-src="?/../" alt="?/../"></a>`], '']);
80
85
  assert.deepStrictEqual(inspect(parser, input('![]{#/../}', new Context())), [[`<a href="#/../" target="_blank"><img class="media" data-src="#/../" alt="#/../"></a>`], '']);
81
86
  assert.deepStrictEqual(inspect(parser, input('![]{^/b}', new Context())), [[`<a href="/b" target="_blank"><img class="media" data-src="/b" alt="^/b"></a>`], '']);
82
- assert.deepStrictEqual(inspect(parser, input('![ a]{b}', new Context())), [['<a href="b" target="_blank"><img class="media" data-src="b" alt="a"></a>'], '']);
83
- assert.deepStrictEqual(inspect(parser, input('![ a ]{b}', new Context())), [['<a href="b" target="_blank"><img class="media" data-src="b" alt="a"></a>'], '']);
84
87
  assert.deepStrictEqual(inspect(parser, input('![a ]{b}', new Context())), [['<a href="b" target="_blank"><img class="media" data-src="b" alt="a"></a>'], '']);
85
88
  assert.deepStrictEqual(inspect(parser, input('![a ]{b}', new Context())), [['<a href="b" target="_blank"><img class="media" data-src="b" alt="a"></a>'], '']);
86
89
  assert.deepStrictEqual(inspect(parser, input('![a b]{c}', new Context())), [['<a href="c" target="_blank"><img class="media" data-src="c" alt="a b"></a>'], '']);
@@ -1,6 +1,7 @@
1
1
  import { MediaParser } from '../inline';
2
2
  import { State, Recursion, Backtrack, Command } from '../context';
3
3
  import { List, Node } from '../../combinator/data/parser';
4
+ import { Flag } from '../node';
4
5
  import { union, inits, tails, some, consume, recursion, precedence, constraint, surround, open, setBacktrack, dup, lazy, fmap, bind } from '../../combinator';
5
6
  import { uri, option as linkoption, resolve, decode, parse } from './link';
6
7
  import { attributes } from './html';
@@ -50,10 +51,14 @@ export const media: MediaParser = lazy(() => constraint(State.media, open(
50
51
  nodes =>
51
52
  nodes.length === 1
52
53
  ? new List<Node<List<Node<string>>>>([new Node(new List([new Node('')])), nodes.delete(nodes.head!)])
53
- : new List<Node<List<Node<string>>>>([new Node(new List([new Node(nodes.head!.value.foldl((acc, { value }) => acc + value, ''))])), nodes.delete(nodes.last!)])),
54
- ([{ value: [{ value: text }] }, { value: params }], context) => {
55
- if (text && text.trimStart() === '') return;
56
- text = text.trim();
54
+ : new List<Node<List<Node<string>>>>([new Node(new List([new Node(nodes.head!.value.foldl((acc, { value }) => acc + value, ''), nodes.head!.value.head?.flags)])), nodes.delete(nodes.last!)])),
55
+ ([{ value: [{ value: text, flags }] }, { value: params }], context) => {
56
+ if (flags & Flag.invisible) return;
57
+ if (text) {
58
+ const tmp = text;
59
+ text = text.trim();
60
+ if (text === '' || text[0] !== tmp[0]) return;
61
+ }
57
62
  consume(100, context);
58
63
  if (params.last!.value === Command.Cancel) {
59
64
  params.pop();
@@ -19,7 +19,10 @@ describe('Unit: parser/inline/reference', () => {
19
19
  assert.deepStrictEqual(inspect(parser, input('[[(]]', new Context())), undefined);
20
20
  assert.deepStrictEqual(inspect(parser, input('[[[%]]', new Context())), undefined);
21
21
  assert.deepStrictEqual(inspect(parser, input('[[ ]]', new Context())), undefined);
22
- assert.deepStrictEqual(inspect(parser, input('[[ [a', new Context())), undefined);
22
+ assert.deepStrictEqual(inspect(parser, input('[[ a]]', new Context())), undefined);
23
+ assert.deepStrictEqual(inspect(parser, input('[[ a ]]', new Context())), undefined);
24
+ assert.deepStrictEqual(inspect(parser, input('[[\\ a]]', new Context())), undefined);
25
+ assert.deepStrictEqual(inspect(parser, input('[[<wbr>a]]', new Context())), undefined);
23
26
  assert.deepStrictEqual(inspect(parser, input('[[\n]]', new Context())), undefined);
24
27
  assert.deepStrictEqual(inspect(parser, input('[[\na]]', new Context())), undefined);
25
28
  assert.deepStrictEqual(inspect(parser, input('[[\\\na]]', new Context())), undefined);
@@ -35,10 +38,6 @@ describe('Unit: parser/inline/reference', () => {
35
38
  });
36
39
 
37
40
  it('basic', () => {
38
- assert.deepStrictEqual(inspect(parser, input('[[ a]]', new Context())), [['<sup class="reference"><span>a</span></sup>'], '']);
39
- assert.deepStrictEqual(inspect(parser, input('[[ a ]]', new Context())), [['<sup class="reference"><span>a</span></sup>'], '']);
40
- assert.deepStrictEqual(inspect(parser, input('[[\\ a]]', new Context())), [['<sup class="reference"><span>a</span></sup>'], '']);
41
- assert.deepStrictEqual(inspect(parser, input('[[<wbr>a]]', new Context())), [['<sup class="reference"><span>a</span></sup>'], '']);
42
41
  assert.deepStrictEqual(inspect(parser, input('[[a]]', new Context())), [['<sup class="reference"><span>a</span></sup>'], '']);
43
42
  assert.deepStrictEqual(inspect(parser, input('[[a ]]', new Context())), [['<sup class="reference"><span>a</span></sup>'], '']);
44
43
  assert.deepStrictEqual(inspect(parser, input('[[a ]]', new Context())), [['<sup class="reference"><span>a</span></sup>'], '']);
@@ -81,7 +80,7 @@ describe('Unit: parser/inline/reference', () => {
81
80
  assert.deepStrictEqual(inspect(parser, input('[[^A| b]]', new Context())), [['<sup class="reference" data-abbr="A"><span>b</span></sup>'], '']);
82
81
  assert.deepStrictEqual(inspect(parser, input('[[^A| ]]', new Context())), undefined);
83
82
  assert.deepStrictEqual(inspect(parser, input('[[^A|<wbr>]]', new Context())), undefined);
84
- assert.deepStrictEqual(inspect(parser, input('[[^A|<wbr>b]]', new Context())), [['<sup class="reference" data-abbr="A"><span>b</span></sup>'], '']);
83
+ assert.deepStrictEqual(inspect(parser, input('[[^A|<wbr>b]]', new Context())), undefined);
85
84
  assert.deepStrictEqual(inspect(parser, input('[[^A|^]]', new Context())), [['<sup class="reference" data-abbr="A"><span>^</span></sup>'], '']);
86
85
  assert.deepStrictEqual(inspect(parser, input('[[^A|^B]]', new Context())), [['<sup class="reference" data-abbr="A"><span>^B</span></sup>'], '']);
87
86
  assert.deepStrictEqual(inspect(parser, input('[[^1]]', new Context())), [['<sup class="invalid"><span>^1</span></sup>'], '']);
@@ -5,7 +5,7 @@ import { union, subsequence, some, precedence, state, constraint, surround, isBa
5
5
  import { inline } from '../inline';
6
6
  import { textlink } from './link';
7
7
  import { str } from '../source';
8
- import { trimBlankStart, trimBlankNodeEnd } from '../visibility';
8
+ import { beforeNonblank, trimBlankNodeEnd } from '../visibility';
9
9
  import { unwrap, invalid } from '../util';
10
10
  import { html, defrag } from 'typed-dom/dom';
11
11
 
@@ -14,7 +14,7 @@ export const reference: ReferenceParser = lazy(() => constraint(State.reference,
14
14
  precedence(1, state(State.annotation | State.reference,
15
15
  subsequence([
16
16
  abbr,
17
- trimBlankStart(some(inline, ']', [[']', 1]])),
17
+ beforeNonblank(some(inline, ']', [[']', 1]])),
18
18
  ]))),
19
19
  ']]',
20
20
  false,
@@ -5,6 +5,13 @@ export const enum Flag {
5
5
  invisible,
6
6
  }
7
7
 
8
- export function isinvisibleHTMLEntityName(name: string): boolean {
9
- return invisibleHTMLEntityNames.includes(name);
10
- }
8
+ export const isInvisibleHTMLEntityName: (name: string) => boolean = eval([
9
+ 'name => {',
10
+ 'switch(name){',
11
+ invisibleHTMLEntityNames.map(name => `case '${name}':`).join(''),
12
+ 'return true;',
13
+ 'default:',
14
+ 'return false;',
15
+ '}',
16
+ '}',
17
+ ].join(''));
@@ -24,12 +24,9 @@ export const text: TextParser = input => {
24
24
  assert(char !== Command.Escape);
25
25
  return new List();
26
26
  default:
27
- const flags = source[position + 1].trimStart()
28
- ? Flag.none
29
- : Flag.invisible;
30
27
  consume(1, context);
31
28
  context.position += 1;
32
- return new List([new Node(source.slice(position + 1, context.position), flags)]);
29
+ return new List([new Node(source.slice(position + 1, context.position))]);
33
30
  }
34
31
  case '\r':
35
32
  consume(-1, context);
@@ -57,9 +54,7 @@ export const text: TextParser = input => {
57
54
  context.position += i - 1;
58
55
  const linestart = position === 0 || source[position - 1] === '\n';
59
56
  if (position === context.position || s && !linestart || lineend) return new List();
60
- const str = source.slice(position, context.position);
61
- const flags = str.length === 1 && str.trimStart() === '' ? Flag.invisible : Flag.none;
62
- return new List([new Node(str, flags)]);
57
+ return new List([new Node(source.slice(position, context.position))]);
63
58
  }
64
59
  };
65
60
 
@@ -4,7 +4,7 @@ import { Flag } from './node';
4
4
  import { convert, fmap } from '../combinator';
5
5
  import { invisibleHTMLEntityNames } from './api/normalize';
6
6
 
7
- namespace blank {
7
+ namespace invisible {
8
8
  export const line = new RegExp(
9
9
  /((?:^|\n)[^\S\n]*(?=\S))((?:[^\S\n]|\\(?=$|\s)|&IHN;|<wbr ?>)+(?=$|\n))/g.source
10
10
  .replace('IHN', `(?:${invisibleHTMLEntityNames.join('|')})`),
@@ -21,7 +21,7 @@ namespace blank {
21
21
 
22
22
  export function visualize<P extends Parser>(parser: P): P {
23
23
  return convert(
24
- source => source.replace(blank.line, `$1${Command.Escape}$2`),
24
+ source => source.replace(invisible.line, `$1${Command.Escape}$2`),
25
25
  parser);
26
26
  }
27
27
 
@@ -53,7 +53,7 @@ function nonblankWith(delimiter: string | RegExp): RegExp {
53
53
  // : undefined;
54
54
  //}
55
55
  //const isLooseStart = reduce(({ source, context }: Input<Context>): boolean => {
56
- // return isTightStart({ source: source.replace(blank.start, ''), context });
56
+ // return isTightStart({ source: source.replace(invisible.start, ''), context });
57
57
  //}, ({ source }) => `${source}${Command.Separator}`);
58
58
 
59
59
  export function beforeNonblank<P extends Parser>(parser: P): P;
@@ -74,7 +74,7 @@ function isTightStart(input: Input<Context>): boolean {
74
74
  case '\n':
75
75
  return false;
76
76
  default:
77
- const reg = blank.unit;
77
+ const reg = invisible.unit;
78
78
  reg.lastIndex = position;
79
79
  return !reg.test(source);
80
80
  }
@@ -96,17 +96,20 @@ export function isTightNodeStart(nodes: List<Node<HTMLElement | string>>): boole
96
96
  // if (nodes.length === 0) return true;
97
97
  // return isVisible(nodes.at(-1)!, -1);
98
98
  //}
99
- function isVisible({ value: node, flags }: Node<HTMLElement | string>, strpos?: 0 | -1): boolean {
100
- if (strpos === undefined || typeof node !== 'string') return !(flags & Flag.invisible);
101
- const char = node && node[strpos && node.length + strpos];
102
- switch (char) {
99
+ function isVisible({ value: node, flags }: Node<HTMLElement | string>, strpos?: number): boolean {
100
+ if (flags & Flag.invisible) return false;
101
+ if (typeof node !== 'string') return true;
102
+ const str = node && strpos !== undefined
103
+ ? node[strpos >= 0 ? strpos : node.length + strpos]
104
+ : node;
105
+ switch (str) {
103
106
  case '':
104
107
  case ' ':
105
108
  case '\t':
106
109
  case '\n':
107
110
  return false;
108
111
  default:
109
- return char.trimStart() !== '';
112
+ return str.trimStart() !== '';
110
113
  }
111
114
  }
112
115
 
@@ -115,13 +118,13 @@ export function trimBlank<P extends Parser<HTMLElement | string>>(parser: P): P;
115
118
  export function trimBlank<N extends HTMLElement | string>(parser: Parser<N>): Parser<N> {
116
119
  return trimBlankStart(trimBlankEnd(parser));
117
120
  }
118
- export function trimBlankStart<P extends Parser>(parser: P): P;
119
- export function trimBlankStart<N>(parser: Parser<N>): Parser<N> {
121
+ function trimBlankStart<P extends Parser>(parser: P): P;
122
+ function trimBlankStart<N>(parser: Parser<N>): Parser<N> {
120
123
  return failsafe(input => {
121
124
  const { context } = input;
122
125
  const { source, position } = context;
123
126
  if (position === source.length) return;
124
- const reg = blank.start;
127
+ const reg = invisible.start;
125
128
  reg.lastIndex = position;
126
129
  reg.test(source);
127
130
  context.position = reg.lastIndex || position;
@@ -154,15 +157,21 @@ export function trimBlankEnd<N extends HTMLElement>(parser: Parser<N>): Parser<s
154
157
  // return nodes;
155
158
  //}
156
159
  export function trimBlankNodeEnd<N extends HTMLElement>(nodes: List<Node<string | N>>): List<Node<string | N>> {
157
- const skip = typeof nodes.last?.value === 'object' && nodes.last.value.className === 'indexer';
158
- for (let node = skip ? nodes.last?.prev : nodes.last; node && !isVisible(node, -1);) {
159
- if (typeof node.value === 'string') {
160
+ const skip = nodes.last && ~nodes.last.flags & Flag.invisible && typeof nodes.last.value === 'object'
161
+ ? nodes.last.value.className === 'indexer'
162
+ : false;
163
+ for (let node = skip ? nodes.last?.prev : nodes.last; node;) {
164
+ const visible = ~node.flags & Flag.invisible;
165
+ if (visible && typeof node.value === 'string') {
160
166
  const str = node.value.trimEnd();
161
167
  if (str.length > 0) {
162
168
  node.value = str;
163
169
  break;
164
170
  }
165
171
  }
172
+ else if (visible) {
173
+ break;
174
+ }
166
175
  const target = node;
167
176
  node = node.prev;
168
177
  nodes.delete(target);