lingo 1.8.0 → 1.8.1
Sign up to get free protection for your applications and to get access to all the features.
- data/ChangeLog +13 -0
- data/README +49 -29
- data/Rakefile +28 -4
- data/TODO +2 -9
- data/bin/lingo +24 -0
- data/bin/lingoctl +24 -0
- data/de/lingo-dic.txt +559 -74
- data/info/gpl-hdr.txt +21 -24
- data/lib/lingo.rb +83 -112
- data/lib/lingo/agenda_item.rb +53 -0
- data/lib/lingo/attendee.rb +261 -0
- data/lib/lingo/attendee/abbreviator.rb +95 -97
- data/lib/lingo/attendee/debugger.rb +94 -93
- data/lib/lingo/attendee/decomposer.rb +76 -83
- data/lib/lingo/attendee/dehyphenizer.rb +141 -144
- data/lib/lingo/attendee/formatter.rb +65 -0
- data/lib/lingo/attendee/multi_worder.rb +302 -0
- data/lib/lingo/attendee/noneword_filter.rb +89 -84
- data/lib/lingo/attendee/object_filter.rb +91 -0
- data/lib/lingo/attendee/sequencer.rb +159 -158
- data/lib/lingo/attendee/synonymer.rb +81 -84
- data/lib/lingo/attendee/text_reader.rb +242 -0
- data/lib/lingo/attendee/text_writer.rb +169 -0
- data/lib/lingo/attendee/tokenizer.rb +192 -191
- data/lib/lingo/attendee/variator.rb +152 -156
- data/lib/lingo/attendee/vector_filter.rb +140 -135
- data/lib/lingo/attendee/word_searcher.rb +98 -0
- data/lib/lingo/buffered_attendee.rb +69 -0
- data/lib/lingo/cachable.rb +58 -0
- data/lib/lingo/call.rb +72 -0
- data/lib/lingo/cli.rb +26 -0
- data/lib/lingo/config.rb +23 -26
- data/lib/lingo/core_ext.rb +42 -0
- data/lib/lingo/ctl.rb +239 -173
- data/lib/lingo/database.rb +148 -496
- data/lib/lingo/database/crypter.rb +85 -0
- data/lib/lingo/database/gdbm_store.rb +49 -0
- data/lib/lingo/database/hash_store.rb +67 -0
- data/lib/lingo/database/libcdb_store.rb +58 -0
- data/lib/lingo/database/sdbm_store.rb +64 -0
- data/lib/lingo/database/show_progress.rb +81 -0
- data/lib/lingo/database/source.rb +134 -0
- data/lib/lingo/database/source/key_value.rb +62 -0
- data/lib/lingo/database/source/multi_key.rb +65 -0
- data/lib/lingo/database/source/multi_value.rb +65 -0
- data/lib/lingo/database/source/single_word.rb +60 -0
- data/lib/lingo/database/source/word_class.rb +64 -0
- data/lib/lingo/error.rb +122 -0
- data/lib/lingo/language.rb +78 -518
- data/lib/lingo/language/dictionary.rb +173 -0
- data/lib/lingo/language/grammar.rb +211 -0
- data/lib/lingo/language/lexical.rb +66 -0
- data/lib/lingo/language/lexical_hash.rb +88 -0
- data/lib/lingo/language/token.rb +48 -0
- data/lib/lingo/language/word.rb +130 -0
- data/lib/lingo/language/word_form.rb +83 -0
- data/lib/lingo/reportable.rb +59 -0
- data/lib/lingo/version.rb +1 -1
- data/lingo-all.cfg +14 -10
- data/lingo-call.cfg +5 -5
- data/lingo.cfg +14 -12
- data/lingo.rb +26 -0
- data/lir.cfg +13 -9
- data/spec/spec_helper.rb +1 -0
- data/test.cfg +11 -11
- data/test/attendee/ts_abbreviator.rb +0 -6
- data/test/attendee/ts_decomposer.rb +0 -6
- data/test/attendee/{ts_multiworder.rb → ts_multi_worder.rb} +1 -7
- data/test/attendee/ts_noneword_filter.rb +1 -7
- data/test/attendee/{ts_objectfilter.rb → ts_object_filter.rb} +1 -7
- data/test/attendee/ts_sequencer.rb +0 -6
- data/test/attendee/ts_synonymer.rb +0 -6
- data/test/attendee/{ts_textreader.rb → ts_text_reader.rb} +1 -7
- data/test/attendee/{ts_textwriter.rb → ts_text_writer.rb} +1 -7
- data/test/attendee/ts_tokenizer.rb +0 -6
- data/test/attendee/ts_variator.rb +0 -6
- data/test/attendee/ts_vector_filter.rb +1 -7
- data/test/attendee/{ts_wordsearcher.rb → ts_word_searcher.rb} +1 -7
- data/test/ref/artikel.non +2 -29
- data/test/ref/artikel.seq +13 -8
- data/test/ref/artikel.vec +30 -15
- data/test/ref/artikel.ven +29 -14
- data/test/ref/artikel.ver +58 -43
- data/test/ref/lir.csv +146 -145
- data/test/ref/lir.non +186 -210
- data/test/ref/lir.seq +54 -50
- data/test/test_helper.rb +41 -36
- data/test/ts_database.rb +12 -11
- data/test/ts_language.rb +118 -68
- metadata +67 -29
- data/lib/lingo/attendee/multiworder.rb +0 -301
- data/lib/lingo/attendee/objectfilter.rb +0 -86
- data/lib/lingo/attendee/textreader.rb +0 -237
- data/lib/lingo/attendee/textwriter.rb +0 -196
- data/lib/lingo/attendee/wordsearcher.rb +0 -96
- data/lib/lingo/attendees.rb +0 -289
- data/lib/lingo/const.rb +0 -131
- data/lib/lingo/modules.rb +0 -98
- data/lib/lingo/types.rb +0 -285
- data/lib/lingo/utilities.rb +0 -40
data/lingo-call.cfg
CHANGED
@@ -1,15 +1,15 @@
|
|
1
1
|
---
|
2
2
|
meeting:
|
3
3
|
attendees:
|
4
|
-
-
|
4
|
+
- text_reader: { }
|
5
5
|
|
6
6
|
- tokenizer: { }
|
7
|
-
-
|
7
|
+
- word_searcher: { source: 'sys-dic', mode: 'first' }
|
8
8
|
- decomposer: { source: 'sys-dic' }
|
9
|
-
-
|
9
|
+
- multi_worder: { stopper: 'PUNC,OTHR', source: 'sys-mul' }
|
10
10
|
- sequencer: { stopper: 'PUNC,OTHR' }
|
11
11
|
- synonymer: { skip: '?,t', source: 'sys-syn', out: 'syn' }
|
12
12
|
- debugger: { eval: 'true', ceval: 'false', prompt: '' }
|
13
13
|
|
14
|
-
|
15
|
-
|
14
|
+
#- vector_filter: { in: 'syn', lexicals: 'y', sort: 'term_abs' }
|
15
|
+
#- text_writer: { ext: 'STDOUT', sep: "\n" }
|
data/lingo.cfg
CHANGED
@@ -11,7 +11,7 @@ meeting:
|
|
11
11
|
#
|
12
12
|
|
13
13
|
# Angegebene Datei zeilenweise einlesen und verarbeitet
|
14
|
-
-
|
14
|
+
- text_reader: { files: '$(files)' }
|
15
15
|
|
16
16
|
|
17
17
|
########################################
|
@@ -22,13 +22,13 @@ meeting:
|
|
22
22
|
- tokenizer: { }
|
23
23
|
|
24
24
|
# Verbleibende Token im Wörterbuch suchen
|
25
|
-
-
|
25
|
+
- word_searcher: { source: 'sys-dic', mode: 'first' }
|
26
26
|
|
27
27
|
# Nicht erkannte Wörter auf Kompositum testen
|
28
28
|
- decomposer: { source: 'sys-dic' }
|
29
29
|
|
30
30
|
# Mehrwortgruppen im Strom erkennen
|
31
|
-
-
|
31
|
+
- multi_worder: { stopper: 'PUNC,OTHR', source: 'sys-mul' }
|
32
32
|
|
33
33
|
# Wortsequenzen anhand von Regeln identifizieren
|
34
34
|
- sequencer: { stopper: 'PUNC,OTHR' }
|
@@ -40,39 +40,41 @@ meeting:
|
|
40
40
|
########################################
|
41
41
|
# Datenstrom anzeigen
|
42
42
|
#
|
43
|
-
|
43
|
+
# - debugger: { eval: 'true', ceval: 'cmd!="EOL"', prompt: 'lex:) ' }
|
44
44
|
|
45
45
|
|
46
46
|
########################################
|
47
47
|
# Ergebnisse ausgeben
|
48
48
|
#
|
49
|
+
|
50
|
+
# Erstelle Datei mit Endung .log für Datenstrom
|
49
51
|
- vector_filter: { in: syn, debug: 'true', prompt: 'lex:) ' }
|
50
|
-
-
|
52
|
+
- text_writer: { ext: log, sep: "\n" }
|
51
53
|
|
52
54
|
# Erstelle Datei mit Endung .non für nicht erkannte Wörter
|
53
55
|
- noneword_filter: { in: syn }
|
54
|
-
-
|
56
|
+
- text_writer: { ext: non, sep: "\n" }
|
55
57
|
|
56
58
|
# Erstelle Datei mit Endung .vec für erkannte Indexterme
|
57
59
|
- vector_filter: { in: syn, lexicals: '^[ksavem]$' }
|
58
|
-
-
|
60
|
+
- text_writer: { ext: vec, sep: "\n" }
|
59
61
|
|
60
62
|
# Erstelle Datei mit Endung .ven für erkannte Indexterme mit absoluter Häufigkeit
|
61
63
|
- vector_filter: { in: syn, lexicals: '^[ksavem]$', sort: 'term_abs' }
|
62
|
-
-
|
64
|
+
- text_writer: { ext: ven, sep: "\n" }
|
63
65
|
|
64
66
|
# Erstelle Datei mit Endung .ver für erkannte Indexterme mit relativer Häufigkeit
|
65
67
|
- vector_filter: { in: syn, lexicals: '^[ksavem]$', sort: 'term_rel' }
|
66
|
-
-
|
68
|
+
- text_writer: { ext: ver, sep: "\n" }
|
67
69
|
|
68
70
|
# Erstelle Datei mit Endung .mul für erkannte Mehrwortgruppen
|
69
71
|
- vector_filter: { in: syn, lexicals: m }
|
70
|
-
-
|
72
|
+
- text_writer: { ext: mul, sep: "\n" }
|
71
73
|
|
72
74
|
# Erstelle Datei mit Endung .seq für erkannte Wortsequenzen
|
73
75
|
- vector_filter: { in: syn, lexicals: q, sort: 'term_abs' }
|
74
|
-
-
|
76
|
+
- text_writer: { ext: seq, sep: "\n" }
|
75
77
|
|
76
78
|
# Erstelle Datei mit Endung .syn für erkannte Synonyme
|
77
79
|
- vector_filter: { in: syn, lexicals: y, sort: 'term_abs' }
|
78
|
-
-
|
80
|
+
- text_writer: { ext: syn, sep: "\n" }
|
data/lingo.rb
CHANGED
@@ -1,3 +1,29 @@
|
|
1
|
+
# encoding: utf-8
|
2
|
+
|
3
|
+
#--
|
4
|
+
###############################################################################
|
5
|
+
# #
|
6
|
+
# Lingo -- A full-featured automatic indexing system #
|
7
|
+
# #
|
8
|
+
# Copyright (C) 2005-2007 John Vorhauer #
|
9
|
+
# Copyright (C) 2007-2012 John Vorhauer, Jens Wille #
|
10
|
+
# #
|
11
|
+
# Lingo is free software; you can redistribute it and/or modify it under the #
|
12
|
+
# terms of the GNU Affero General Public License as published by the Free #
|
13
|
+
# Software Foundation; either version 3 of the License, or (at your option) #
|
14
|
+
# any later version. #
|
15
|
+
# #
|
16
|
+
# Lingo is distributed in the hope that it will be useful, but WITHOUT ANY #
|
17
|
+
# WARRANTY; without even the implied warranty of MERCHANTABILITY or FITNESS #
|
18
|
+
# FOR A PARTICULAR PURPOSE. See the GNU Affero General Public License for #
|
19
|
+
# more details. #
|
20
|
+
# #
|
21
|
+
# You should have received a copy of the GNU Affero General Public License #
|
22
|
+
# along with Lingo. If not, see <http://www.gnu.org/licenses/>. #
|
23
|
+
# #
|
24
|
+
###############################################################################
|
25
|
+
#++
|
26
|
+
|
1
27
|
require_relative 'lib/lingo'
|
2
28
|
|
3
29
|
Lingo.talk if $0 == __FILE__
|
data/lir.cfg
CHANGED
@@ -15,7 +15,7 @@ meeting:
|
|
15
15
|
#
|
16
16
|
|
17
17
|
# Angegebene Datei zeilenweise einlesen und verarbeiten
|
18
|
-
-
|
18
|
+
- text_reader: { files: '$(files)', lir-record-pattern: '^\[(\d+)\.\]' }
|
19
19
|
|
20
20
|
|
21
21
|
########################################
|
@@ -26,13 +26,13 @@ meeting:
|
|
26
26
|
- tokenizer: { }
|
27
27
|
|
28
28
|
# Verbleibende Token im Wörterbuch suchen
|
29
|
-
-
|
29
|
+
- word_searcher: { source: 'sys-dic', mode: 'first' }
|
30
30
|
|
31
31
|
# Nicht erkannte Wörter auf Kompositum testen
|
32
32
|
- decomposer: { source: 'sys-dic' }
|
33
33
|
|
34
34
|
# Mehrwortgruppen im Strom erkennen
|
35
|
-
-
|
35
|
+
- multi_worder: { stopper: 'PUNC,OTHR', source: 'sys-mul' }
|
36
36
|
|
37
37
|
# Wortsequenzen anhand von Regeln identifizieren
|
38
38
|
- sequencer: { stopper: 'PUNC,OTHR' }
|
@@ -44,29 +44,33 @@ meeting:
|
|
44
44
|
########################################
|
45
45
|
# Datenstrom anzeigen
|
46
46
|
#
|
47
|
-
|
47
|
+
# - debugger: { eval: 'true', ceval: 'cmd!="EOL"', prompt: 'lex:) ' }
|
48
48
|
|
49
49
|
|
50
50
|
########################################
|
51
51
|
# Ergebnisse ausgeben
|
52
52
|
#
|
53
53
|
|
54
|
+
# Erstelle Datei mit Endung .log für Datenstrom
|
55
|
+
- vector_filter: { in: syn, debug: 'true', prompt: 'lex:) ' }
|
56
|
+
- text_writer: { ext: log, sep: "\n" }
|
57
|
+
|
54
58
|
# Erstelle Datei mit Endung .non für nicht erkannte Wörter
|
55
59
|
- noneword_filter: { in: syn }
|
56
|
-
-
|
60
|
+
- text_writer: { ext: non }
|
57
61
|
|
58
62
|
# Erstelle Datei mit Endung .csv für erkannte Indexterme
|
59
63
|
- vector_filter: { in: syn, lexicals: '^[ksavem]$' }
|
60
|
-
-
|
64
|
+
- text_writer: { ext: csv }
|
61
65
|
|
62
66
|
# Erstelle Datei mit Endung .mul für erkannte Mehrwortgruppen
|
63
67
|
- vector_filter: { in: syn, lexicals: m }
|
64
|
-
-
|
68
|
+
- text_writer: { ext: mul }
|
65
69
|
|
66
70
|
# Erstelle Datei mit Endung .seq für erkannte Wortsequenzen
|
67
71
|
- vector_filter: { in: syn, lexicals: q, sort: 'term_abs' }
|
68
|
-
-
|
72
|
+
- text_writer: { ext: seq }
|
69
73
|
|
70
74
|
# Erstelle Datei mit Endung .syn für erkannte Synonyme
|
71
75
|
- vector_filter: { in: syn, lexicals: y, sort: 'term_abs' }
|
72
|
-
-
|
76
|
+
- text_writer: { ext: syn }
|
data/spec/spec_helper.rb
CHANGED
@@ -0,0 +1 @@
|
|
1
|
+
# encoding: utf-8
|
data/test.cfg
CHANGED
@@ -11,7 +11,7 @@ meeting:
|
|
11
11
|
#
|
12
12
|
|
13
13
|
# Angegebene Datei zeilenweise einlesen und verarbeiten
|
14
|
-
-
|
14
|
+
- text_reader: { files: '$(files)' }
|
15
15
|
|
16
16
|
|
17
17
|
########################################
|
@@ -19,19 +19,19 @@ meeting:
|
|
19
19
|
#
|
20
20
|
|
21
21
|
# Zeile in einzelnen Sinnbestandteile (Token) zerlegen
|
22
|
-
- tokenizer:
|
22
|
+
- tokenizer: { }
|
23
23
|
|
24
24
|
# Abkürzungen erkennen und auflösen
|
25
25
|
# - abbreviator: { source: 'sys-abk' }
|
26
26
|
|
27
27
|
# Verbleibende Token im Wörterbuch suchen
|
28
|
-
-
|
28
|
+
- word_searcher: { source: 'sys-dic', mode: 'first' }
|
29
29
|
|
30
30
|
# Nicht erkannte Wörter auf Kompositum testen
|
31
31
|
- decomposer: { source: 'sys-dic' }
|
32
32
|
|
33
33
|
# Mehrwortgruppen im Strom erkennen
|
34
|
-
-
|
34
|
+
- multi_worder: { stopper: 'PUNC,OTHR', source: 'sys-mul' }
|
35
35
|
|
36
36
|
# Wortsequenzen anhand von Regeln identifizieren
|
37
37
|
- sequencer: { stopper: 'PUNC,OTHR' }
|
@@ -52,28 +52,28 @@ meeting:
|
|
52
52
|
|
53
53
|
# Erstelle Datei mit Endung .non für nicht erkannte Wörter
|
54
54
|
- noneword_filter: { in: syn }
|
55
|
-
-
|
55
|
+
- text_writer: { ext: non, sep: "\n" }
|
56
56
|
|
57
57
|
# Erstelle Datei mit Endung .vec für erkannte Indexterme
|
58
58
|
- vector_filter: { in: syn, lexicals: '^[ksavem]$', sort: 'term_abs' }
|
59
|
-
-
|
59
|
+
- text_writer: { ext: vec, sep: "\n" }
|
60
60
|
|
61
61
|
# Erstelle Datei mit Endung .vec für erkannte Indexterme mit absoluter Häufigkeit
|
62
62
|
- vector_filter: { in: syn, lexicals: '^[ksavem]$' }
|
63
|
-
-
|
63
|
+
- text_writer: { ext: ven, sep: "\n" }
|
64
64
|
|
65
65
|
# Erstelle Datei mit Endung .vec für erkannte Indexterme mit relativer Häufigkeit
|
66
66
|
- vector_filter: { in: syn, lexicals: '^[ksavem]$', sort: 'term_rel' }
|
67
|
-
-
|
67
|
+
- text_writer: { ext: ver, sep: "\n" }
|
68
68
|
|
69
69
|
# Erstelle Datei mit Endung .mul für erkannte Mehrwortgruppen
|
70
70
|
- vector_filter: { in: syn, lexicals: m }
|
71
|
-
-
|
71
|
+
- text_writer: { ext: mul, sep: "\n" }
|
72
72
|
|
73
73
|
# Erstelle Datei mit Endung .seq für erkannte Wortsequenzen
|
74
74
|
- vector_filter: { in: syn, lexicals: q, sort: 'term_abs' }
|
75
|
-
-
|
75
|
+
- text_writer: { ext: seq, sep: "\n" }
|
76
76
|
|
77
77
|
# Erstelle Datei mit Endung .syn für erkannte Synonyme
|
78
78
|
- vector_filter: { in: syn, lexicals: y, sort: 'term_abs' }
|
79
|
-
-
|
79
|
+
- text_writer: { ext: syn, sep: "\n" }
|
@@ -2,10 +2,6 @@
|
|
2
2
|
|
3
3
|
require_relative '../test_helper'
|
4
4
|
|
5
|
-
################################################################################
|
6
|
-
#
|
7
|
-
# Attendee Abbreviator
|
8
|
-
#
|
9
5
|
class TestAttendeeAbbreviator < AttendeeTestCase
|
10
6
|
|
11
7
|
def test_basic
|
@@ -31,5 +27,3 @@ class TestAttendeeAbbreviator < AttendeeTestCase
|
|
31
27
|
end
|
32
28
|
|
33
29
|
end
|
34
|
-
#
|
35
|
-
################################################################################
|
@@ -2,10 +2,6 @@
|
|
2
2
|
|
3
3
|
require_relative '../test_helper'
|
4
4
|
|
5
|
-
################################################################################
|
6
|
-
#
|
7
|
-
# Attendee Decomposer
|
8
|
-
#
|
9
5
|
class TestAttendeeDecomposer < AttendeeTestCase
|
10
6
|
|
11
7
|
def test_basic
|
@@ -27,5 +23,3 @@ class TestAttendeeDecomposer < AttendeeTestCase
|
|
27
23
|
end
|
28
24
|
|
29
25
|
end
|
30
|
-
#
|
31
|
-
################################################################################
|
@@ -2,11 +2,7 @@
|
|
2
2
|
|
3
3
|
require_relative '../test_helper'
|
4
4
|
|
5
|
-
|
6
|
-
#
|
7
|
-
# Attendee Multiworder
|
8
|
-
#
|
9
|
-
class TestAttendeeMultiworder < AttendeeTestCase
|
5
|
+
class TestAttendeeMultiWorder < AttendeeTestCase
|
10
6
|
|
11
7
|
def test_basic
|
12
8
|
@input = [
|
@@ -386,5 +382,3 @@ class TestAttendeeMultiworder < AttendeeTestCase
|
|
386
382
|
end
|
387
383
|
|
388
384
|
end
|
389
|
-
#
|
390
|
-
################################################################################
|
@@ -2,11 +2,7 @@
|
|
2
2
|
|
3
3
|
require_relative '../test_helper'
|
4
4
|
|
5
|
-
|
6
|
-
#
|
7
|
-
# Attendee Noneword_filter
|
8
|
-
#
|
9
|
-
class TestAttendeeNoneword_filter < AttendeeTestCase
|
5
|
+
class TestAttendeeNonewordFilter < AttendeeTestCase
|
10
6
|
|
11
7
|
def test_basic
|
12
8
|
@input = [wd('Eins|IDF'), wd('Zwei|?'), wd('Drei|IDF'), wd('Vier|?'), ai('EOF|')]
|
@@ -15,5 +11,3 @@ class TestAttendeeNoneword_filter < AttendeeTestCase
|
|
15
11
|
end
|
16
12
|
|
17
13
|
end
|
18
|
-
#
|
19
|
-
################################################################################
|
@@ -2,11 +2,7 @@
|
|
2
2
|
|
3
3
|
require_relative '../test_helper'
|
4
4
|
|
5
|
-
|
6
|
-
#
|
7
|
-
# Attendee Objectfilter
|
8
|
-
#
|
9
|
-
class TestAttendeeObjectfilter < AttendeeTestCase
|
5
|
+
class TestAttendeeObjectFilter < AttendeeTestCase
|
10
6
|
|
11
7
|
def test_basic
|
12
8
|
@input = [wd('Eins|IDF'), wd('zwei|?'), wd('Drei|IDF'), wd('vier|?'), ai('EOF|')]
|
@@ -15,5 +11,3 @@ class TestAttendeeObjectfilter < AttendeeTestCase
|
|
15
11
|
end
|
16
12
|
|
17
13
|
end
|
18
|
-
#
|
19
|
-
################################################################################
|
@@ -2,10 +2,6 @@
|
|
2
2
|
|
3
3
|
require_relative '../test_helper'
|
4
4
|
|
5
|
-
################################################################################
|
6
|
-
#
|
7
|
-
# Attendee Sequencer
|
8
|
-
#
|
9
5
|
class TestAttendeeSequencer < AttendeeTestCase
|
10
6
|
|
11
7
|
def test_basic
|
@@ -39,5 +35,3 @@ class TestAttendeeSequencer < AttendeeTestCase
|
|
39
35
|
end
|
40
36
|
|
41
37
|
end
|
42
|
-
#
|
43
|
-
################################################################################
|
@@ -2,10 +2,6 @@
|
|
2
2
|
|
3
3
|
require_relative '../test_helper'
|
4
4
|
|
5
|
-
################################################################################
|
6
|
-
#
|
7
|
-
# Attendee Synonymer
|
8
|
-
#
|
9
5
|
class TestAttendeeSynonymer < AttendeeTestCase
|
10
6
|
|
11
7
|
def test_basic
|
@@ -29,5 +25,3 @@ class TestAttendeeSynonymer < AttendeeTestCase
|
|
29
25
|
end
|
30
26
|
|
31
27
|
end
|
32
|
-
#
|
33
|
-
################################################################################
|
@@ -2,11 +2,7 @@
|
|
2
2
|
|
3
3
|
require_relative '../test_helper'
|
4
4
|
|
5
|
-
|
6
|
-
#
|
7
|
-
# Attendee Textreader
|
8
|
-
#
|
9
|
-
class TestAttendeeTextreader < AttendeeTestCase
|
5
|
+
class TestAttendeeTextReader < AttendeeTestCase
|
10
6
|
|
11
7
|
def test_lir_file
|
12
8
|
@expect = [
|
@@ -54,5 +50,3 @@ class TestAttendeeTextreader < AttendeeTestCase
|
|
54
50
|
end
|
55
51
|
|
56
52
|
end
|
57
|
-
#
|
58
|
-
################################################################################
|
@@ -2,11 +2,7 @@
|
|
2
2
|
|
3
3
|
require_relative '../test_helper'
|
4
4
|
|
5
|
-
|
6
|
-
#
|
7
|
-
# Attendee Textwriter
|
8
|
-
#
|
9
|
-
class TestAttendeeTextwriter < AttendeeTestCase
|
5
|
+
class TestAttendeeTextWriter < AttendeeTestCase
|
10
6
|
|
11
7
|
def setup
|
12
8
|
@data = [
|
@@ -94,5 +90,3 @@ FG-Projekt GERHARD.\r\n",
|
|
94
90
|
end
|
95
91
|
|
96
92
|
end
|
97
|
-
#
|
98
|
-
################################################################################
|
@@ -1,9 +1,5 @@
|
|
1
1
|
# encoding: utf-8
|
2
2
|
|
3
|
-
################################################################################
|
4
|
-
#
|
5
|
-
# Attendee Tokenizer
|
6
|
-
#
|
7
3
|
class TestAttendeeTokenizer < AttendeeTestCase
|
8
4
|
|
9
5
|
def test_basic
|
@@ -28,5 +24,3 @@ class TestAttendeeTokenizer < AttendeeTestCase
|
|
28
24
|
end
|
29
25
|
|
30
26
|
end
|
31
|
-
#
|
32
|
-
################################################################################
|
@@ -2,10 +2,6 @@
|
|
2
2
|
|
3
3
|
require_relative '../test_helper'
|
4
4
|
|
5
|
-
################################################################################
|
6
|
-
#
|
7
|
-
# Attendee Variator
|
8
|
-
#
|
9
5
|
class TestAttendeeVariator < AttendeeTestCase
|
10
6
|
|
11
7
|
def test_basic
|
@@ -20,5 +16,3 @@ class TestAttendeeVariator < AttendeeTestCase
|
|
20
16
|
end
|
21
17
|
|
22
18
|
end
|
23
|
-
#
|
24
|
-
################################################################################
|