lingo 1.8.0 → 1.8.1

Sign up to get free protection for your applications and to get access to all the features.
Files changed (100) hide show
  1. data/ChangeLog +13 -0
  2. data/README +49 -29
  3. data/Rakefile +28 -4
  4. data/TODO +2 -9
  5. data/bin/lingo +24 -0
  6. data/bin/lingoctl +24 -0
  7. data/de/lingo-dic.txt +559 -74
  8. data/info/gpl-hdr.txt +21 -24
  9. data/lib/lingo.rb +83 -112
  10. data/lib/lingo/agenda_item.rb +53 -0
  11. data/lib/lingo/attendee.rb +261 -0
  12. data/lib/lingo/attendee/abbreviator.rb +95 -97
  13. data/lib/lingo/attendee/debugger.rb +94 -93
  14. data/lib/lingo/attendee/decomposer.rb +76 -83
  15. data/lib/lingo/attendee/dehyphenizer.rb +141 -144
  16. data/lib/lingo/attendee/formatter.rb +65 -0
  17. data/lib/lingo/attendee/multi_worder.rb +302 -0
  18. data/lib/lingo/attendee/noneword_filter.rb +89 -84
  19. data/lib/lingo/attendee/object_filter.rb +91 -0
  20. data/lib/lingo/attendee/sequencer.rb +159 -158
  21. data/lib/lingo/attendee/synonymer.rb +81 -84
  22. data/lib/lingo/attendee/text_reader.rb +242 -0
  23. data/lib/lingo/attendee/text_writer.rb +169 -0
  24. data/lib/lingo/attendee/tokenizer.rb +192 -191
  25. data/lib/lingo/attendee/variator.rb +152 -156
  26. data/lib/lingo/attendee/vector_filter.rb +140 -135
  27. data/lib/lingo/attendee/word_searcher.rb +98 -0
  28. data/lib/lingo/buffered_attendee.rb +69 -0
  29. data/lib/lingo/cachable.rb +58 -0
  30. data/lib/lingo/call.rb +72 -0
  31. data/lib/lingo/cli.rb +26 -0
  32. data/lib/lingo/config.rb +23 -26
  33. data/lib/lingo/core_ext.rb +42 -0
  34. data/lib/lingo/ctl.rb +239 -173
  35. data/lib/lingo/database.rb +148 -496
  36. data/lib/lingo/database/crypter.rb +85 -0
  37. data/lib/lingo/database/gdbm_store.rb +49 -0
  38. data/lib/lingo/database/hash_store.rb +67 -0
  39. data/lib/lingo/database/libcdb_store.rb +58 -0
  40. data/lib/lingo/database/sdbm_store.rb +64 -0
  41. data/lib/lingo/database/show_progress.rb +81 -0
  42. data/lib/lingo/database/source.rb +134 -0
  43. data/lib/lingo/database/source/key_value.rb +62 -0
  44. data/lib/lingo/database/source/multi_key.rb +65 -0
  45. data/lib/lingo/database/source/multi_value.rb +65 -0
  46. data/lib/lingo/database/source/single_word.rb +60 -0
  47. data/lib/lingo/database/source/word_class.rb +64 -0
  48. data/lib/lingo/error.rb +122 -0
  49. data/lib/lingo/language.rb +78 -518
  50. data/lib/lingo/language/dictionary.rb +173 -0
  51. data/lib/lingo/language/grammar.rb +211 -0
  52. data/lib/lingo/language/lexical.rb +66 -0
  53. data/lib/lingo/language/lexical_hash.rb +88 -0
  54. data/lib/lingo/language/token.rb +48 -0
  55. data/lib/lingo/language/word.rb +130 -0
  56. data/lib/lingo/language/word_form.rb +83 -0
  57. data/lib/lingo/reportable.rb +59 -0
  58. data/lib/lingo/version.rb +1 -1
  59. data/lingo-all.cfg +14 -10
  60. data/lingo-call.cfg +5 -5
  61. data/lingo.cfg +14 -12
  62. data/lingo.rb +26 -0
  63. data/lir.cfg +13 -9
  64. data/spec/spec_helper.rb +1 -0
  65. data/test.cfg +11 -11
  66. data/test/attendee/ts_abbreviator.rb +0 -6
  67. data/test/attendee/ts_decomposer.rb +0 -6
  68. data/test/attendee/{ts_multiworder.rb → ts_multi_worder.rb} +1 -7
  69. data/test/attendee/ts_noneword_filter.rb +1 -7
  70. data/test/attendee/{ts_objectfilter.rb → ts_object_filter.rb} +1 -7
  71. data/test/attendee/ts_sequencer.rb +0 -6
  72. data/test/attendee/ts_synonymer.rb +0 -6
  73. data/test/attendee/{ts_textreader.rb → ts_text_reader.rb} +1 -7
  74. data/test/attendee/{ts_textwriter.rb → ts_text_writer.rb} +1 -7
  75. data/test/attendee/ts_tokenizer.rb +0 -6
  76. data/test/attendee/ts_variator.rb +0 -6
  77. data/test/attendee/ts_vector_filter.rb +1 -7
  78. data/test/attendee/{ts_wordsearcher.rb → ts_word_searcher.rb} +1 -7
  79. data/test/ref/artikel.non +2 -29
  80. data/test/ref/artikel.seq +13 -8
  81. data/test/ref/artikel.vec +30 -15
  82. data/test/ref/artikel.ven +29 -14
  83. data/test/ref/artikel.ver +58 -43
  84. data/test/ref/lir.csv +146 -145
  85. data/test/ref/lir.non +186 -210
  86. data/test/ref/lir.seq +54 -50
  87. data/test/test_helper.rb +41 -36
  88. data/test/ts_database.rb +12 -11
  89. data/test/ts_language.rb +118 -68
  90. metadata +67 -29
  91. data/lib/lingo/attendee/multiworder.rb +0 -301
  92. data/lib/lingo/attendee/objectfilter.rb +0 -86
  93. data/lib/lingo/attendee/textreader.rb +0 -237
  94. data/lib/lingo/attendee/textwriter.rb +0 -196
  95. data/lib/lingo/attendee/wordsearcher.rb +0 -96
  96. data/lib/lingo/attendees.rb +0 -289
  97. data/lib/lingo/const.rb +0 -131
  98. data/lib/lingo/modules.rb +0 -98
  99. data/lib/lingo/types.rb +0 -285
  100. data/lib/lingo/utilities.rb +0 -40
@@ -1,15 +1,15 @@
1
1
  ---
2
2
  meeting:
3
3
  attendees:
4
- - textreader: { }
4
+ - text_reader: { }
5
5
 
6
6
  - tokenizer: { }
7
- - wordsearcher: { source: 'sys-dic', mode: 'first' }
7
+ - word_searcher: { source: 'sys-dic', mode: 'first' }
8
8
  - decomposer: { source: 'sys-dic' }
9
- - multiworder: { stopper: 'PUNC,OTHR', source: 'sys-mul' }
9
+ - multi_worder: { stopper: 'PUNC,OTHR', source: 'sys-mul' }
10
10
  - sequencer: { stopper: 'PUNC,OTHR' }
11
11
  - synonymer: { skip: '?,t', source: 'sys-syn', out: 'syn' }
12
12
  - debugger: { eval: 'true', ceval: 'false', prompt: '' }
13
13
 
14
- #- vector_filter: { in: 'syn', lexicals: 'y', sort: 'term_abs' }
15
- #- textwriter: { ext: 'STDOUT', sep: "\n" }
14
+ #- vector_filter: { in: 'syn', lexicals: 'y', sort: 'term_abs' }
15
+ #- text_writer: { ext: 'STDOUT', sep: "\n" }
data/lingo.cfg CHANGED
@@ -11,7 +11,7 @@ meeting:
11
11
  #
12
12
 
13
13
  # Angegebene Datei zeilenweise einlesen und verarbeitet
14
- - textreader: { files: '$(files)' }
14
+ - text_reader: { files: '$(files)' }
15
15
 
16
16
 
17
17
  ########################################
@@ -22,13 +22,13 @@ meeting:
22
22
  - tokenizer: { }
23
23
 
24
24
  # Verbleibende Token im Wörterbuch suchen
25
- - wordsearcher: { source: 'sys-dic', mode: 'first' }
25
+ - word_searcher: { source: 'sys-dic', mode: 'first' }
26
26
 
27
27
  # Nicht erkannte Wörter auf Kompositum testen
28
28
  - decomposer: { source: 'sys-dic' }
29
29
 
30
30
  # Mehrwortgruppen im Strom erkennen
31
- - multiworder: { stopper: 'PUNC,OTHR', source: 'sys-mul' }
31
+ - multi_worder: { stopper: 'PUNC,OTHR', source: 'sys-mul' }
32
32
 
33
33
  # Wortsequenzen anhand von Regeln identifizieren
34
34
  - sequencer: { stopper: 'PUNC,OTHR' }
@@ -40,39 +40,41 @@ meeting:
40
40
  ########################################
41
41
  # Datenstrom anzeigen
42
42
  #
43
- #- debugger: { eval: 'true', ceval: 'cmd!="EOL"', prompt: 'lex:) ' }
43
+ # - debugger: { eval: 'true', ceval: 'cmd!="EOL"', prompt: 'lex:) ' }
44
44
 
45
45
 
46
46
  ########################################
47
47
  # Ergebnisse ausgeben
48
48
  #
49
+
50
+ # Erstelle Datei mit Endung .log für Datenstrom
49
51
  - vector_filter: { in: syn, debug: 'true', prompt: 'lex:) ' }
50
- - textwriter: { ext: log, sep: "\n" }
52
+ - text_writer: { ext: log, sep: "\n" }
51
53
 
52
54
  # Erstelle Datei mit Endung .non für nicht erkannte Wörter
53
55
  - noneword_filter: { in: syn }
54
- - textwriter: { ext: non, sep: "\n" }
56
+ - text_writer: { ext: non, sep: "\n" }
55
57
 
56
58
  # Erstelle Datei mit Endung .vec für erkannte Indexterme
57
59
  - vector_filter: { in: syn, lexicals: '^[ksavem]$' }
58
- - textwriter: { ext: vec, sep: "\n" }
60
+ - text_writer: { ext: vec, sep: "\n" }
59
61
 
60
62
  # Erstelle Datei mit Endung .ven für erkannte Indexterme mit absoluter Häufigkeit
61
63
  - vector_filter: { in: syn, lexicals: '^[ksavem]$', sort: 'term_abs' }
62
- - textwriter: { ext: ven, sep: "\n" }
64
+ - text_writer: { ext: ven, sep: "\n" }
63
65
 
64
66
  # Erstelle Datei mit Endung .ver für erkannte Indexterme mit relativer Häufigkeit
65
67
  - vector_filter: { in: syn, lexicals: '^[ksavem]$', sort: 'term_rel' }
66
- - textwriter: { ext: ver, sep: "\n" }
68
+ - text_writer: { ext: ver, sep: "\n" }
67
69
 
68
70
  # Erstelle Datei mit Endung .mul für erkannte Mehrwortgruppen
69
71
  - vector_filter: { in: syn, lexicals: m }
70
- - textwriter: { ext: mul, sep: "\n" }
72
+ - text_writer: { ext: mul, sep: "\n" }
71
73
 
72
74
  # Erstelle Datei mit Endung .seq für erkannte Wortsequenzen
73
75
  - vector_filter: { in: syn, lexicals: q, sort: 'term_abs' }
74
- - textwriter: { ext: seq, sep: "\n" }
76
+ - text_writer: { ext: seq, sep: "\n" }
75
77
 
76
78
  # Erstelle Datei mit Endung .syn für erkannte Synonyme
77
79
  - vector_filter: { in: syn, lexicals: y, sort: 'term_abs' }
78
- - textwriter: { ext: syn, sep: "\n" }
80
+ - text_writer: { ext: syn, sep: "\n" }
data/lingo.rb CHANGED
@@ -1,3 +1,29 @@
1
+ # encoding: utf-8
2
+
3
+ #--
4
+ ###############################################################################
5
+ # #
6
+ # Lingo -- A full-featured automatic indexing system #
7
+ # #
8
+ # Copyright (C) 2005-2007 John Vorhauer #
9
+ # Copyright (C) 2007-2012 John Vorhauer, Jens Wille #
10
+ # #
11
+ # Lingo is free software; you can redistribute it and/or modify it under the #
12
+ # terms of the GNU Affero General Public License as published by the Free #
13
+ # Software Foundation; either version 3 of the License, or (at your option) #
14
+ # any later version. #
15
+ # #
16
+ # Lingo is distributed in the hope that it will be useful, but WITHOUT ANY #
17
+ # WARRANTY; without even the implied warranty of MERCHANTABILITY or FITNESS #
18
+ # FOR A PARTICULAR PURPOSE. See the GNU Affero General Public License for #
19
+ # more details. #
20
+ # #
21
+ # You should have received a copy of the GNU Affero General Public License #
22
+ # along with Lingo. If not, see <http://www.gnu.org/licenses/>. #
23
+ # #
24
+ ###############################################################################
25
+ #++
26
+
1
27
  require_relative 'lib/lingo'
2
28
 
3
29
  Lingo.talk if $0 == __FILE__
data/lir.cfg CHANGED
@@ -15,7 +15,7 @@ meeting:
15
15
  #
16
16
 
17
17
  # Angegebene Datei zeilenweise einlesen und verarbeiten
18
- - textreader: { files: '$(files)', lir-record-pattern: '^\[(\d+)\.\]' }
18
+ - text_reader: { files: '$(files)', lir-record-pattern: '^\[(\d+)\.\]' }
19
19
 
20
20
 
21
21
  ########################################
@@ -26,13 +26,13 @@ meeting:
26
26
  - tokenizer: { }
27
27
 
28
28
  # Verbleibende Token im Wörterbuch suchen
29
- - wordsearcher: { source: 'sys-dic', mode: 'first' }
29
+ - word_searcher: { source: 'sys-dic', mode: 'first' }
30
30
 
31
31
  # Nicht erkannte Wörter auf Kompositum testen
32
32
  - decomposer: { source: 'sys-dic' }
33
33
 
34
34
  # Mehrwortgruppen im Strom erkennen
35
- - multiworder: { stopper: 'PUNC,OTHR', source: 'sys-mul' }
35
+ - multi_worder: { stopper: 'PUNC,OTHR', source: 'sys-mul' }
36
36
 
37
37
  # Wortsequenzen anhand von Regeln identifizieren
38
38
  - sequencer: { stopper: 'PUNC,OTHR' }
@@ -44,29 +44,33 @@ meeting:
44
44
  ########################################
45
45
  # Datenstrom anzeigen
46
46
  #
47
- - debugger: { eval: 'true', ceval: 'cmd!="EOL"', prompt: 'lex:) ' }
47
+ # - debugger: { eval: 'true', ceval: 'cmd!="EOL"', prompt: 'lex:) ' }
48
48
 
49
49
 
50
50
  ########################################
51
51
  # Ergebnisse ausgeben
52
52
  #
53
53
 
54
+ # Erstelle Datei mit Endung .log für Datenstrom
55
+ - vector_filter: { in: syn, debug: 'true', prompt: 'lex:) ' }
56
+ - text_writer: { ext: log, sep: "\n" }
57
+
54
58
  # Erstelle Datei mit Endung .non für nicht erkannte Wörter
55
59
  - noneword_filter: { in: syn }
56
- - textwriter: { ext: non }
60
+ - text_writer: { ext: non }
57
61
 
58
62
  # Erstelle Datei mit Endung .csv für erkannte Indexterme
59
63
  - vector_filter: { in: syn, lexicals: '^[ksavem]$' }
60
- - textwriter: { ext: csv }
64
+ - text_writer: { ext: csv }
61
65
 
62
66
  # Erstelle Datei mit Endung .mul für erkannte Mehrwortgruppen
63
67
  - vector_filter: { in: syn, lexicals: m }
64
- - textwriter: { ext: mul }
68
+ - text_writer: { ext: mul }
65
69
 
66
70
  # Erstelle Datei mit Endung .seq für erkannte Wortsequenzen
67
71
  - vector_filter: { in: syn, lexicals: q, sort: 'term_abs' }
68
- - textwriter: { ext: seq }
72
+ - text_writer: { ext: seq }
69
73
 
70
74
  # Erstelle Datei mit Endung .syn für erkannte Synonyme
71
75
  - vector_filter: { in: syn, lexicals: y, sort: 'term_abs' }
72
- - textwriter: { ext: syn }
76
+ - text_writer: { ext: syn }
@@ -0,0 +1 @@
1
+ # encoding: utf-8
data/test.cfg CHANGED
@@ -11,7 +11,7 @@ meeting:
11
11
  #
12
12
 
13
13
  # Angegebene Datei zeilenweise einlesen und verarbeiten
14
- - textreader: { files: '$(files)' }
14
+ - text_reader: { files: '$(files)' }
15
15
 
16
16
 
17
17
  ########################################
@@ -19,19 +19,19 @@ meeting:
19
19
  #
20
20
 
21
21
  # Zeile in einzelnen Sinnbestandteile (Token) zerlegen
22
- - tokenizer: { }
22
+ - tokenizer: { }
23
23
 
24
24
  # Abkürzungen erkennen und auflösen
25
25
  # - abbreviator: { source: 'sys-abk' }
26
26
 
27
27
  # Verbleibende Token im Wörterbuch suchen
28
- - wordsearcher: { source: 'sys-dic', mode: 'first' }
28
+ - word_searcher: { source: 'sys-dic', mode: 'first' }
29
29
 
30
30
  # Nicht erkannte Wörter auf Kompositum testen
31
31
  - decomposer: { source: 'sys-dic' }
32
32
 
33
33
  # Mehrwortgruppen im Strom erkennen
34
- - multiworder: { stopper: 'PUNC,OTHR', source: 'sys-mul' }
34
+ - multi_worder: { stopper: 'PUNC,OTHR', source: 'sys-mul' }
35
35
 
36
36
  # Wortsequenzen anhand von Regeln identifizieren
37
37
  - sequencer: { stopper: 'PUNC,OTHR' }
@@ -52,28 +52,28 @@ meeting:
52
52
 
53
53
  # Erstelle Datei mit Endung .non für nicht erkannte Wörter
54
54
  - noneword_filter: { in: syn }
55
- - textwriter: { ext: non, sep: "\n" }
55
+ - text_writer: { ext: non, sep: "\n" }
56
56
 
57
57
  # Erstelle Datei mit Endung .vec für erkannte Indexterme
58
58
  - vector_filter: { in: syn, lexicals: '^[ksavem]$', sort: 'term_abs' }
59
- - textwriter: { ext: vec, sep: "\n" }
59
+ - text_writer: { ext: vec, sep: "\n" }
60
60
 
61
61
  # Erstelle Datei mit Endung .vec für erkannte Indexterme mit absoluter Häufigkeit
62
62
  - vector_filter: { in: syn, lexicals: '^[ksavem]$' }
63
- - textwriter: { ext: ven, sep: "\n" }
63
+ - text_writer: { ext: ven, sep: "\n" }
64
64
 
65
65
  # Erstelle Datei mit Endung .vec für erkannte Indexterme mit relativer Häufigkeit
66
66
  - vector_filter: { in: syn, lexicals: '^[ksavem]$', sort: 'term_rel' }
67
- - textwriter: { ext: ver, sep: "\n" }
67
+ - text_writer: { ext: ver, sep: "\n" }
68
68
 
69
69
  # Erstelle Datei mit Endung .mul für erkannte Mehrwortgruppen
70
70
  - vector_filter: { in: syn, lexicals: m }
71
- - textwriter: { ext: mul, sep: "\n" }
71
+ - text_writer: { ext: mul, sep: "\n" }
72
72
 
73
73
  # Erstelle Datei mit Endung .seq für erkannte Wortsequenzen
74
74
  - vector_filter: { in: syn, lexicals: q, sort: 'term_abs' }
75
- - textwriter: { ext: seq, sep: "\n" }
75
+ - text_writer: { ext: seq, sep: "\n" }
76
76
 
77
77
  # Erstelle Datei mit Endung .syn für erkannte Synonyme
78
78
  - vector_filter: { in: syn, lexicals: y, sort: 'term_abs' }
79
- - textwriter: { ext: syn, sep: "\n" }
79
+ - text_writer: { ext: syn, sep: "\n" }
@@ -2,10 +2,6 @@
2
2
 
3
3
  require_relative '../test_helper'
4
4
 
5
- ################################################################################
6
- #
7
- # Attendee Abbreviator
8
- #
9
5
  class TestAttendeeAbbreviator < AttendeeTestCase
10
6
 
11
7
  def test_basic
@@ -31,5 +27,3 @@ class TestAttendeeAbbreviator < AttendeeTestCase
31
27
  end
32
28
 
33
29
  end
34
- #
35
- ################################################################################
@@ -2,10 +2,6 @@
2
2
 
3
3
  require_relative '../test_helper'
4
4
 
5
- ################################################################################
6
- #
7
- # Attendee Decomposer
8
- #
9
5
  class TestAttendeeDecomposer < AttendeeTestCase
10
6
 
11
7
  def test_basic
@@ -27,5 +23,3 @@ class TestAttendeeDecomposer < AttendeeTestCase
27
23
  end
28
24
 
29
25
  end
30
- #
31
- ################################################################################
@@ -2,11 +2,7 @@
2
2
 
3
3
  require_relative '../test_helper'
4
4
 
5
- ################################################################################
6
- #
7
- # Attendee Multiworder
8
- #
9
- class TestAttendeeMultiworder < AttendeeTestCase
5
+ class TestAttendeeMultiWorder < AttendeeTestCase
10
6
 
11
7
  def test_basic
12
8
  @input = [
@@ -386,5 +382,3 @@ class TestAttendeeMultiworder < AttendeeTestCase
386
382
  end
387
383
 
388
384
  end
389
- #
390
- ################################################################################
@@ -2,11 +2,7 @@
2
2
 
3
3
  require_relative '../test_helper'
4
4
 
5
- ################################################################################
6
- #
7
- # Attendee Noneword_filter
8
- #
9
- class TestAttendeeNoneword_filter < AttendeeTestCase
5
+ class TestAttendeeNonewordFilter < AttendeeTestCase
10
6
 
11
7
  def test_basic
12
8
  @input = [wd('Eins|IDF'), wd('Zwei|?'), wd('Drei|IDF'), wd('Vier|?'), ai('EOF|')]
@@ -15,5 +11,3 @@ class TestAttendeeNoneword_filter < AttendeeTestCase
15
11
  end
16
12
 
17
13
  end
18
- #
19
- ################################################################################
@@ -2,11 +2,7 @@
2
2
 
3
3
  require_relative '../test_helper'
4
4
 
5
- ################################################################################
6
- #
7
- # Attendee Objectfilter
8
- #
9
- class TestAttendeeObjectfilter < AttendeeTestCase
5
+ class TestAttendeeObjectFilter < AttendeeTestCase
10
6
 
11
7
  def test_basic
12
8
  @input = [wd('Eins|IDF'), wd('zwei|?'), wd('Drei|IDF'), wd('vier|?'), ai('EOF|')]
@@ -15,5 +11,3 @@ class TestAttendeeObjectfilter < AttendeeTestCase
15
11
  end
16
12
 
17
13
  end
18
- #
19
- ################################################################################
@@ -2,10 +2,6 @@
2
2
 
3
3
  require_relative '../test_helper'
4
4
 
5
- ################################################################################
6
- #
7
- # Attendee Sequencer
8
- #
9
5
  class TestAttendeeSequencer < AttendeeTestCase
10
6
 
11
7
  def test_basic
@@ -39,5 +35,3 @@ class TestAttendeeSequencer < AttendeeTestCase
39
35
  end
40
36
 
41
37
  end
42
- #
43
- ################################################################################
@@ -2,10 +2,6 @@
2
2
 
3
3
  require_relative '../test_helper'
4
4
 
5
- ################################################################################
6
- #
7
- # Attendee Synonymer
8
- #
9
5
  class TestAttendeeSynonymer < AttendeeTestCase
10
6
 
11
7
  def test_basic
@@ -29,5 +25,3 @@ class TestAttendeeSynonymer < AttendeeTestCase
29
25
  end
30
26
 
31
27
  end
32
- #
33
- ################################################################################
@@ -2,11 +2,7 @@
2
2
 
3
3
  require_relative '../test_helper'
4
4
 
5
- ################################################################################
6
- #
7
- # Attendee Textreader
8
- #
9
- class TestAttendeeTextreader < AttendeeTestCase
5
+ class TestAttendeeTextReader < AttendeeTestCase
10
6
 
11
7
  def test_lir_file
12
8
  @expect = [
@@ -54,5 +50,3 @@ class TestAttendeeTextreader < AttendeeTestCase
54
50
  end
55
51
 
56
52
  end
57
- #
58
- ################################################################################
@@ -2,11 +2,7 @@
2
2
 
3
3
  require_relative '../test_helper'
4
4
 
5
- ################################################################################
6
- #
7
- # Attendee Textwriter
8
- #
9
- class TestAttendeeTextwriter < AttendeeTestCase
5
+ class TestAttendeeTextWriter < AttendeeTestCase
10
6
 
11
7
  def setup
12
8
  @data = [
@@ -94,5 +90,3 @@ FG-Projekt GERHARD.\r\n",
94
90
  end
95
91
 
96
92
  end
97
- #
98
- ################################################################################
@@ -1,9 +1,5 @@
1
1
  # encoding: utf-8
2
2
 
3
- ################################################################################
4
- #
5
- # Attendee Tokenizer
6
- #
7
3
  class TestAttendeeTokenizer < AttendeeTestCase
8
4
 
9
5
  def test_basic
@@ -28,5 +24,3 @@ class TestAttendeeTokenizer < AttendeeTestCase
28
24
  end
29
25
 
30
26
  end
31
- #
32
- ################################################################################
@@ -2,10 +2,6 @@
2
2
 
3
3
  require_relative '../test_helper'
4
4
 
5
- ################################################################################
6
- #
7
- # Attendee Variator
8
- #
9
5
  class TestAttendeeVariator < AttendeeTestCase
10
6
 
11
7
  def test_basic
@@ -20,5 +16,3 @@ class TestAttendeeVariator < AttendeeTestCase
20
16
  end
21
17
 
22
18
  end
23
- #
24
- ################################################################################