pelican-nlp 0.1.0__tar.gz → 0.1.1__tar.gz
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- {pelican_nlp-0.1.0 → pelican_nlp-0.1.1}/.idea/workspace.xml +0 -1
- {pelican_nlp-0.1.0 → pelican_nlp-0.1.1}/PKG-INFO +11 -19
- {pelican_nlp-0.1.0 → pelican_nlp-0.1.1}/README.rst +10 -18
- pelican_nlp-0.1.1/examples/PyPI_testing_discourse/.idea/.gitignore +3 -0
- pelican_nlp-0.1.1/examples/PyPI_testing_discourse/.idea/inspectionProfiles/Project_Default.xml +13 -0
- pelican_nlp-0.1.1/examples/PyPI_testing_discourse/.idea/inspectionProfiles/profiles_settings.xml +6 -0
- pelican_nlp-0.1.1/examples/PyPI_testing_discourse/.idea/misc.xml +6 -0
- pelican_nlp-0.1.1/examples/PyPI_testing_discourse/.idea/modules.xml +8 -0
- pelican_nlp-0.1.1/examples/PyPI_testing_discourse/.idea/pelican_testing.iml +8 -0
- pelican_nlp-0.1.1/examples/PyPI_testing_discourse/config_discourse.yml +106 -0
- pelican_nlp-0.1.1/examples/PyPI_testing_discourse/subjects/sub-01/interview/sub-01_interview_schizophrenia_run-01.rtf +97 -0
- pelican_nlp-0.1.1/examples/PyPI_testing_fluency/.idea/.gitignore +3 -0
- pelican_nlp-0.1.1/examples/PyPI_testing_fluency/.idea/inspectionProfiles/Project_Default.xml +13 -0
- pelican_nlp-0.1.1/examples/PyPI_testing_fluency/.idea/inspectionProfiles/profiles_settings.xml +6 -0
- pelican_nlp-0.1.1/examples/PyPI_testing_fluency/.idea/misc.xml +6 -0
- pelican_nlp-0.1.1/examples/PyPI_testing_fluency/.idea/modules.xml +8 -0
- pelican_nlp-0.1.1/examples/PyPI_testing_fluency/.idea/pelican_testing.iml +8 -0
- pelican_nlp-0.1.1/examples/PyPI_testing_fluency/config_fluency.yml +108 -0
- pelican_nlp-0.1.1/examples/PyPI_testing_fluency/subjects/sub-01/fluency/sub-01_fluency_sem_animals.txt +1 -0
- pelican_nlp-0.1.1/examples/PyPI_testing_fluency/subjects/sub-01/fluency/sub-01_fluency_sem_clothes.txt +1 -0
- pelican_nlp-0.1.1/examples/PyPI_testing_fluency/subjects/sub-01/fluency/sub-01_fluency_sem_food.txt +1 -0
- pelican_nlp-0.1.1/examples/PyPI_testing_fluency/subjects/sub-02/fluency/sub-02_fluency_sem_animals.txt +1 -0
- pelican_nlp-0.1.1/examples/PyPI_testing_fluency/subjects/sub-02/fluency/sub-02_fluency_sem_clothes.txt +1 -0
- pelican_nlp-0.1.1/examples/PyPI_testing_fluency/subjects/sub-02/fluency/sub-02_fluency_sem_food.txt +1 -0
- pelican_nlp-0.1.1/examples/PyPI_testing_image-descriptions/config_image-descriptions.yml +136 -0
- pelican_nlp-0.1.1/examples/PyPI_testing_image-descriptions/subjects/sub-01/ses-01/image-description/sub-01_ses-01_image-description_drug.docx +0 -0
- pelican_nlp-0.1.1/examples/PyPI_testing_image-descriptions/subjects/sub-01/ses-01/image-description/sub-01_ses-01_image-description_placebo.docx +0 -0
- pelican_nlp-0.1.1/examples/PyPI_testing_image-descriptions/subjects/sub-01/ses-02/image-description/sub-01_ses-02_image-description_drug.docx +0 -0
- pelican_nlp-0.1.1/examples/PyPI_testing_image-descriptions/subjects/sub-01/ses-02/image-description/sub-01_ses-02_image-description_placebo.docx +0 -0
- pelican_nlp-0.1.1/examples/PyPI_testing_image-descriptions/subjects/sub-02/ses-01/image-description/sub-02_ses-01_image-description_drug.docx +0 -0
- pelican_nlp-0.1.1/examples/PyPI_testing_image-descriptions/subjects/sub-02/ses-01/image-description/sub-02_ses-01_image-description_placebo.docx +0 -0
- {pelican_nlp-0.1.0 → pelican_nlp-0.1.1}/pelican_nlp/__init__.py +1 -1
- {pelican_nlp-0.1.0 → pelican_nlp-0.1.1}/pelican_nlp.egg-info/PKG-INFO +11 -19
- pelican_nlp-0.1.1/pelican_nlp.egg-info/SOURCES.txt +82 -0
- {pelican_nlp-0.1.0 → pelican_nlp-0.1.1}/pyproject.toml +1 -1
- pelican_nlp-0.1.0/TODO.txt +0 -13
- pelican_nlp-0.1.0/__pycache__/config.cpython-312.pyc +0 -0
- pelican_nlp-0.1.0/pelican_nlp.egg-info/SOURCES.txt +0 -106
- pelican_nlp-0.1.0/simu/__init__.py +0 -4
- pelican_nlp-0.1.0/simu/__pycache__/__init__.cpython-312.pyc +0 -0
- pelican_nlp-0.1.0/simu/__pycache__/generate_options.cpython-312.pyc +0 -0
- pelican_nlp-0.1.0/simu/__pycache__/generate_parameter.cpython-312.pyc +0 -0
- pelican_nlp-0.1.0/simu/__pycache__/generate_text.cpython-312.pyc +0 -0
- pelican_nlp-0.1.0/simu/__pycache__/pipeline_setup.cpython-312.pyc +0 -0
- pelican_nlp-0.1.0/simu/__pycache__/setup_pipeline.cpython-312.pyc +0 -0
- pelican_nlp-0.1.0/simu/__pycache__/simu_config.cpython-312.pyc +0 -0
- pelican_nlp-0.1.0/simu/__pycache__/subject_config.cpython-312.pyc +0 -0
- pelican_nlp-0.1.0/simu/generate_parameter.py +0 -118
- pelican_nlp-0.1.0/simu/generate_text.py +0 -41
- pelican_nlp-0.1.0/simu/setup_pipeline.py +0 -107
- pelican_nlp-0.1.0/simu/simu_config.py +0 -77
- pelican_nlp-0.1.0/simu/simu_main.py +0 -92
- pelican_nlp-0.1.0/simu/simu_output/group_a/progress.json +0 -442
- pelican_nlp-0.1.0/simu/simu_output/group_a/subject_0.json +0 -1550
- pelican_nlp-0.1.0/simu/simu_output/group_a/subject_1.json +0 -1550
- pelican_nlp-0.1.0/simu/simu_output/group_a/subject_2.json +0 -1550
- pelican_nlp-0.1.0/simu/simu_output/group_a/subject_3.json +0 -1550
- pelican_nlp-0.1.0/simu/simu_output/group_a/subject_4.json +0 -1550
- pelican_nlp-0.1.0/simu/simu_output/group_a/subject_5.json +0 -1550
- pelican_nlp-0.1.0/simu/simu_output/group_a/subject_6.json +0 -1550
- pelican_nlp-0.1.0/simu/simu_output/group_a/subject_7.json +0 -1550
- pelican_nlp-0.1.0/simu/simu_output/group_b/progress.json +0 -442
- pelican_nlp-0.1.0/simu/simu_output/group_b/subject_0.json +0 -1550
- pelican_nlp-0.1.0/simu/simu_output/group_b/subject_1.json +0 -1550
- pelican_nlp-0.1.0/simu/simu_output/group_b/subject_2.json +0 -1550
- pelican_nlp-0.1.0/simu/simu_output/group_b/subject_3.json +0 -1550
- pelican_nlp-0.1.0/simu/simu_output/group_b/subject_4.json +0 -1550
- pelican_nlp-0.1.0/simu/simu_output/group_b/subject_5.json +0 -1550
- pelican_nlp-0.1.0/simu/simu_output/group_b/subject_6.json +0 -1550
- pelican_nlp-0.1.0/simu/simu_output/group_b/subject_7.json +0 -1550
- pelican_nlp-0.1.0/simu/simu_output/group_c/progress.json +0 -442
- pelican_nlp-0.1.0/simu/simu_output/group_c/subject_0.json +0 -1550
- pelican_nlp-0.1.0/simu/simu_output/group_c/subject_1.json +0 -1550
- pelican_nlp-0.1.0/simu/simu_output/group_c/subject_2.json +0 -1550
- pelican_nlp-0.1.0/simu/simu_output/group_c/subject_3.json +0 -1550
- pelican_nlp-0.1.0/simu/simu_output/group_c/subject_4.json +0 -1550
- pelican_nlp-0.1.0/simu/simu_output/group_c/subject_5.json +0 -1550
- pelican_nlp-0.1.0/simu/simu_output/group_c/subject_6.json +0 -1550
- pelican_nlp-0.1.0/simu/simu_output/group_c/subject_7.json +0 -1550
- pelican_nlp-0.1.0/simu/simu_output/group_d/progress.json +0 -442
- pelican_nlp-0.1.0/simu/simu_output/group_d/subject_0.json +0 -1550
- pelican_nlp-0.1.0/simu/simu_output/group_d/subject_1.json +0 -1550
- pelican_nlp-0.1.0/simu/simu_output/group_d/subject_2.json +0 -1550
- pelican_nlp-0.1.0/simu/simu_output/group_d/subject_3.json +0 -1550
- pelican_nlp-0.1.0/simu/simu_output/group_d/subject_4.json +0 -1550
- pelican_nlp-0.1.0/simu/simu_output/group_d/subject_5.json +0 -1550
- pelican_nlp-0.1.0/simu/simu_output/group_d/subject_6.json +0 -1550
- pelican_nlp-0.1.0/simu/simu_output/group_d/subject_7.json +0 -1550
- {pelican_nlp-0.1.0 → pelican_nlp-0.1.1}/.DS_Store +0 -0
- {pelican_nlp-0.1.0 → pelican_nlp-0.1.1}/.gitignore +0 -0
- {pelican_nlp-0.1.0 → pelican_nlp-0.1.1}/.idea/PELICAN-nlp.iml +0 -0
- {pelican_nlp-0.1.0 → pelican_nlp-0.1.1}/.idea/inspectionProfiles/Project_Default.xml +0 -0
- {pelican_nlp-0.1.0 → pelican_nlp-0.1.1}/.idea/inspectionProfiles/profiles_settings.xml +0 -0
- {pelican_nlp-0.1.0 → pelican_nlp-0.1.1}/.idea/misc.xml +0 -0
- {pelican_nlp-0.1.0 → pelican_nlp-0.1.1}/.idea/modules.xml +0 -0
- {pelican_nlp-0.1.0 → pelican_nlp-0.1.1}/.idea/vcs.xml +0 -0
- {pelican_nlp-0.1.0 → pelican_nlp-0.1.1}/LICENSE +0 -0
- {pelican_nlp-0.1.0 → pelican_nlp-0.1.1}/MANIFEST.in +0 -0
- {pelican_nlp-0.1.0 → pelican_nlp-0.1.1}/pelican_nlp/core/__init__.py +0 -0
- {pelican_nlp-0.1.0 → pelican_nlp-0.1.1}/pelican_nlp/core/audio_document.py +0 -0
- {pelican_nlp-0.1.0 → pelican_nlp-0.1.1}/pelican_nlp/core/corpus.py +0 -0
- {pelican_nlp-0.1.0 → pelican_nlp-0.1.1}/pelican_nlp/core/document.py +0 -0
- {pelican_nlp-0.1.0 → pelican_nlp-0.1.1}/pelican_nlp/core/subject.py +0 -0
- {pelican_nlp-0.1.0 → pelican_nlp-0.1.1}/pelican_nlp/extraction/__init__.py +0 -0
- {pelican_nlp-0.1.0 → pelican_nlp-0.1.1}/pelican_nlp/extraction/acoustic_feature_extraction.py +0 -0
- {pelican_nlp-0.1.0 → pelican_nlp-0.1.1}/pelican_nlp/extraction/distance_from_randomness.py +0 -0
- {pelican_nlp-0.1.0 → pelican_nlp-0.1.1}/pelican_nlp/extraction/extract_embeddings.py +0 -0
- {pelican_nlp-0.1.0 → pelican_nlp-0.1.1}/pelican_nlp/extraction/extract_logits.py +0 -0
- {pelican_nlp-0.1.0 → pelican_nlp-0.1.1}/pelican_nlp/extraction/language_model.py +0 -0
- {pelican_nlp-0.1.0 → pelican_nlp-0.1.1}/pelican_nlp/extraction/semantic_similarity.py +0 -0
- {pelican_nlp-0.1.0 → pelican_nlp-0.1.1}/pelican_nlp/extraction/test_documents/test_features.csv +0 -0
- {pelican_nlp-0.1.0 → pelican_nlp-0.1.1}/pelican_nlp/extraction/test_documents/wallace_1.15_3.txt +0 -0
- {pelican_nlp-0.1.0 → pelican_nlp-0.1.1}/pelican_nlp/extraction/test_documents/wallace_1.1_3.txt +0 -0
- {pelican_nlp-0.1.0 → pelican_nlp-0.1.1}/pelican_nlp/extraction/test_documents/wallace_1_4.txt +0 -0
- {pelican_nlp-0.1.0 → pelican_nlp-0.1.1}/pelican_nlp/main.py +0 -0
- {pelican_nlp-0.1.0 → pelican_nlp-0.1.1}/pelican_nlp/metrics_statistics/embeddings_metrics_statistics.py +0 -0
- {pelican_nlp-0.1.0 → pelican_nlp-0.1.1}/pelican_nlp/preprocessing/LPDS.py +0 -0
- {pelican_nlp-0.1.0 → pelican_nlp-0.1.1}/pelican_nlp/preprocessing/__init__.py +0 -0
- {pelican_nlp-0.1.0 → pelican_nlp-0.1.1}/pelican_nlp/preprocessing/pipeline.py +0 -0
- {pelican_nlp-0.1.0 → pelican_nlp-0.1.1}/pelican_nlp/preprocessing/speaker_diarization.py +0 -0
- {pelican_nlp-0.1.0 → pelican_nlp-0.1.1}/pelican_nlp/preprocessing/text_cleaner.py +0 -0
- {pelican_nlp-0.1.0 → pelican_nlp-0.1.1}/pelican_nlp/preprocessing/text_importer.py +0 -0
- {pelican_nlp-0.1.0 → pelican_nlp-0.1.1}/pelican_nlp/preprocessing/text_normalizer.py +0 -0
- {pelican_nlp-0.1.0 → pelican_nlp-0.1.1}/pelican_nlp/preprocessing/text_tokenizer.py +0 -0
- {pelican_nlp-0.1.0 → pelican_nlp-0.1.1}/pelican_nlp/sample_configuration_files/config_discourse.yml +0 -0
- {pelican_nlp-0.1.0 → pelican_nlp-0.1.1}/pelican_nlp/sample_configuration_files/config_fluency.yml +0 -0
- {pelican_nlp-0.1.0 → pelican_nlp-0.1.1}/pelican_nlp/sample_configuration_files/config_general.yml +0 -0
- {pelican_nlp-0.1.0 → pelican_nlp-0.1.1}/pelican_nlp/utils/__init__.py +0 -0
- {pelican_nlp-0.1.0 → pelican_nlp-0.1.1}/pelican_nlp/utils/csv_functions.py +0 -0
- {pelican_nlp-0.1.0 → pelican_nlp-0.1.1}/pelican_nlp/utils/sample_usage.py +0 -0
- {pelican_nlp-0.1.0 → pelican_nlp-0.1.1}/pelican_nlp/utils/setup_functions.py +0 -0
- {pelican_nlp-0.1.0 → pelican_nlp-0.1.1}/pelican_nlp.egg-info/dependency_links.txt +0 -0
- {pelican_nlp-0.1.0 → pelican_nlp-0.1.1}/pelican_nlp.egg-info/requires.txt +0 -0
- {pelican_nlp-0.1.0 → pelican_nlp-0.1.1}/pelican_nlp.egg-info/top_level.txt +0 -0
- {pelican_nlp-0.1.0 → pelican_nlp-0.1.1}/requirements.txt +0 -0
- {pelican_nlp-0.1.0 → pelican_nlp-0.1.1}/setup.cfg +0 -0
- {pelican_nlp-0.1.0 → pelican_nlp-0.1.1}/tests/__init__.py +0 -0
@@ -7,7 +7,6 @@
|
|
7
7
|
<list default="true" id="561d1adb-82da-424d-a56f-a602fbe1dddd" name="Changes" comment="">
|
8
8
|
<change beforePath="$PROJECT_DIR$/.idea/workspace.xml" beforeDir="false" afterPath="$PROJECT_DIR$/.idea/workspace.xml" afterDir="false" />
|
9
9
|
<change beforePath="$PROJECT_DIR$/pelican_nlp/__init__.py" beforeDir="false" afterPath="$PROJECT_DIR$/pelican_nlp/__init__.py" afterDir="false" />
|
10
|
-
<change beforePath="$PROJECT_DIR$/pelican_nlp/extraction/extract_embeddings.py" beforeDir="false" afterPath="$PROJECT_DIR$/pelican_nlp/extraction/extract_embeddings.py" afterDir="false" />
|
11
10
|
<change beforePath="$PROJECT_DIR$/pyproject.toml" beforeDir="false" afterPath="$PROJECT_DIR$/pyproject.toml" afterDir="false" />
|
12
11
|
</list>
|
13
12
|
<option name="SHOW_DIALOG" value="false" />
|
@@ -1,6 +1,6 @@
|
|
1
1
|
Metadata-Version: 2.4
|
2
2
|
Name: pelican_nlp
|
3
|
-
Version: 0.1.
|
3
|
+
Version: 0.1.1
|
4
4
|
Summary: Preprocessing and Extraction of Linguistic Information for Computational Analysis
|
5
5
|
Author-email: Yves Pauli <yves.pauli@gmail.com>
|
6
6
|
License-Expression: CC-BY-NC-4.0
|
@@ -51,7 +51,7 @@ PELICAN_nlp
|
|
51
51
|
PELICAN_nlp stands for "Preprocessing and Extraction of Linguistic Information for Computational Analysis - Natural Language Processing". This package enables the creation of standardized and reproducible language processing pipelines, extracting linguistic features from various tasks like discourse, fluency, and image descriptions.
|
52
52
|
|
53
53
|
.. image:: https://img.shields.io/pypi/v/package-name.svg
|
54
|
-
:target: https://pypi.org/project/
|
54
|
+
:target: https://pypi.org/project/pelican-nlp/
|
55
55
|
:alt: PyPI version
|
56
56
|
|
57
57
|
.. image:: https://img.shields.io/github/license/username/package-name.svg
|
@@ -59,7 +59,7 @@ PELICAN_nlp stands for "Preprocessing and Extraction of Linguistic Information f
|
|
59
59
|
:alt: License
|
60
60
|
|
61
61
|
.. image:: https://img.shields.io/pypi/pyversions/package-name.svg
|
62
|
-
:target: https://pypi.org/project/
|
62
|
+
:target: https://pypi.org/project/pelican-nlp/
|
63
63
|
:alt: Supported Python Versions
|
64
64
|
|
65
65
|
Installation
|
@@ -82,6 +82,9 @@ Usage
|
|
82
82
|
|
83
83
|
To use the pelican_nlp package:
|
84
84
|
|
85
|
+
Adapt your configuration file to your needs.
|
86
|
+
ALWAYS change the specified project folder location.
|
87
|
+
|
85
88
|
.. code-block:: python
|
86
89
|
|
87
90
|
from pelican_nlp.main import Pelican
|
@@ -94,7 +97,7 @@ For reliable operation, data must be stored in the *Language Processing Data Str
|
|
94
97
|
|
95
98
|
Text and audio files should follow this naming convention:
|
96
99
|
|
97
|
-
|
100
|
+
[subjectID]_[sessionID]_[task]_[task-supplement]_[corpus].[extension]
|
98
101
|
|
99
102
|
- subjectID: ID of subject (e.g., sub-01), mandatory
|
100
103
|
- sessionID: ID of session (e.g., ses-01), if available
|
@@ -121,26 +124,15 @@ Features
|
|
121
124
|
Examples
|
122
125
|
========
|
123
126
|
|
124
|
-
|
125
|
-
|
126
|
-
.. code-block:: python
|
127
|
-
|
128
|
-
from package_name import SomeClass
|
129
|
-
|
130
|
-
configuration_file = "config_fluency.yml"
|
131
|
-
pelican.run(configuration_file)
|
132
|
-
|
133
|
-
*Link to config_fluency.yml*
|
134
|
-
|
135
|
-
Sample folder for data collection of the semantic fluency task:
|
136
|
-
*Link to sample_folder*
|
127
|
+
You can find example setups in the [`examples/`](https://github.com/ypauli/PELICAN-nlp/examples) folder.
|
128
|
+
ALWAYS change the path to the project folder specified in the configuration file to your specific project location.
|
137
129
|
|
138
130
|
Contributing
|
139
131
|
============
|
140
132
|
|
141
|
-
Contributions are welcome! Please check out the `contributing guide <https://github.com/ypauli/PELICAN/blob/main/CONTRIBUTING.md>`_.
|
133
|
+
Contributions are welcome! Please check out the `contributing guide <https://github.com/ypauli/PELICAN-nlp/blob/main/CONTRIBUTING.md>`_.
|
142
134
|
|
143
135
|
License
|
144
136
|
=======
|
145
137
|
|
146
|
-
This project is licensed under Attribution-NonCommercial 4.0 International. See the `LICENSE <https://github.com/ypauli/PELICAN/blob/main/LICENSE>`_ file for details.
|
138
|
+
This project is licensed under Attribution-NonCommercial 4.0 International. See the `LICENSE <https://github.com/ypauli/PELICAN-nlp/blob/main/LICENSE>`_ file for details.
|
@@ -5,7 +5,7 @@ PELICAN_nlp
|
|
5
5
|
PELICAN_nlp stands for "Preprocessing and Extraction of Linguistic Information for Computational Analysis - Natural Language Processing". This package enables the creation of standardized and reproducible language processing pipelines, extracting linguistic features from various tasks like discourse, fluency, and image descriptions.
|
6
6
|
|
7
7
|
.. image:: https://img.shields.io/pypi/v/package-name.svg
|
8
|
-
:target: https://pypi.org/project/
|
8
|
+
:target: https://pypi.org/project/pelican-nlp/
|
9
9
|
:alt: PyPI version
|
10
10
|
|
11
11
|
.. image:: https://img.shields.io/github/license/username/package-name.svg
|
@@ -13,7 +13,7 @@ PELICAN_nlp stands for "Preprocessing and Extraction of Linguistic Information f
|
|
13
13
|
:alt: License
|
14
14
|
|
15
15
|
.. image:: https://img.shields.io/pypi/pyversions/package-name.svg
|
16
|
-
:target: https://pypi.org/project/
|
16
|
+
:target: https://pypi.org/project/pelican-nlp/
|
17
17
|
:alt: Supported Python Versions
|
18
18
|
|
19
19
|
Installation
|
@@ -36,6 +36,9 @@ Usage
|
|
36
36
|
|
37
37
|
To use the pelican_nlp package:
|
38
38
|
|
39
|
+
Adapt your configuration file to your needs.
|
40
|
+
ALWAYS change the specified project folder location.
|
41
|
+
|
39
42
|
.. code-block:: python
|
40
43
|
|
41
44
|
from pelican_nlp.main import Pelican
|
@@ -48,7 +51,7 @@ For reliable operation, data must be stored in the *Language Processing Data Str
|
|
48
51
|
|
49
52
|
Text and audio files should follow this naming convention:
|
50
53
|
|
51
|
-
|
54
|
+
[subjectID]_[sessionID]_[task]_[task-supplement]_[corpus].[extension]
|
52
55
|
|
53
56
|
- subjectID: ID of subject (e.g., sub-01), mandatory
|
54
57
|
- sessionID: ID of session (e.g., ses-01), if available
|
@@ -75,26 +78,15 @@ Features
|
|
75
78
|
Examples
|
76
79
|
========
|
77
80
|
|
78
|
-
|
79
|
-
|
80
|
-
.. code-block:: python
|
81
|
-
|
82
|
-
from package_name import SomeClass
|
83
|
-
|
84
|
-
configuration_file = "config_fluency.yml"
|
85
|
-
pelican.run(configuration_file)
|
86
|
-
|
87
|
-
*Link to config_fluency.yml*
|
88
|
-
|
89
|
-
Sample folder for data collection of the semantic fluency task:
|
90
|
-
*Link to sample_folder*
|
81
|
+
You can find example setups in the [`examples/`](https://github.com/ypauli/PELICAN-nlp/examples) folder.
|
82
|
+
ALWAYS change the path to the project folder specified in the configuration file to your specific project location.
|
91
83
|
|
92
84
|
Contributing
|
93
85
|
============
|
94
86
|
|
95
|
-
Contributions are welcome! Please check out the `contributing guide <https://github.com/ypauli/PELICAN/blob/main/CONTRIBUTING.md>`_.
|
87
|
+
Contributions are welcome! Please check out the `contributing guide <https://github.com/ypauli/PELICAN-nlp/blob/main/CONTRIBUTING.md>`_.
|
96
88
|
|
97
89
|
License
|
98
90
|
=======
|
99
91
|
|
100
|
-
This project is licensed under Attribution-NonCommercial 4.0 International. See the `LICENSE <https://github.com/ypauli/PELICAN/blob/main/LICENSE>`_ file for details.
|
92
|
+
This project is licensed under Attribution-NonCommercial 4.0 International. See the `LICENSE <https://github.com/ypauli/PELICAN-nlp/blob/main/LICENSE>`_ file for details.
|
pelican_nlp-0.1.1/examples/PyPI_testing_discourse/.idea/inspectionProfiles/Project_Default.xml
ADDED
@@ -0,0 +1,13 @@
|
|
1
|
+
<component name="InspectionProjectProfileManager">
|
2
|
+
<profile version="1.0">
|
3
|
+
<option name="myName" value="Project Default" />
|
4
|
+
<inspection_tool class="PyPep8NamingInspection" enabled="true" level="WEAK WARNING" enabled_by_default="true">
|
5
|
+
<option name="ignoredErrors">
|
6
|
+
<list>
|
7
|
+
<option value="N802" />
|
8
|
+
<option value="N806" />
|
9
|
+
</list>
|
10
|
+
</option>
|
11
|
+
</inspection_tool>
|
12
|
+
</profile>
|
13
|
+
</component>
|
@@ -0,0 +1,8 @@
|
|
1
|
+
<?xml version="1.0" encoding="UTF-8"?>
|
2
|
+
<project version="4">
|
3
|
+
<component name="ProjectModuleManager">
|
4
|
+
<modules>
|
5
|
+
<module fileurl="file://$PROJECT_DIR$/.idea/pelican_testing.iml" filepath="$PROJECT_DIR$/.idea/pelican_testing.iml" />
|
6
|
+
</modules>
|
7
|
+
</component>
|
8
|
+
</project>
|
@@ -0,0 +1,8 @@
|
|
1
|
+
<?xml version="1.0" encoding="UTF-8"?>
|
2
|
+
<module type="PYTHON_MODULE" version="4">
|
3
|
+
<component name="NewModuleRootManager">
|
4
|
+
<content url="file://$MODULE_DIR$" />
|
5
|
+
<orderEntry type="jdk" jdkName="PELICAN" jdkType="Python SDK" />
|
6
|
+
<orderEntry type="sourceFolder" forTests="false" />
|
7
|
+
</component>
|
8
|
+
</module>
|
@@ -0,0 +1,106 @@
|
|
1
|
+
# Configuration file for discourse protocols
|
2
|
+
#=======================================
|
3
|
+
input_file: "text" #or 'audio'
|
4
|
+
discourse: &discourse_flag true
|
5
|
+
#=====================================
|
6
|
+
|
7
|
+
#general configurations; always adapt
|
8
|
+
PATH_TO_PROJECT_FOLDER: "/home/yvespauli/PycharmProjects/PyPI_testing_discourse"
|
9
|
+
language: "german" # Possibly add options for German and English
|
10
|
+
|
11
|
+
task_name: "interview" # Give name of task used for creation of the input file (e.g., ['fluency', 'interview'])
|
12
|
+
corpus_names:
|
13
|
+
- "schizophrenia"
|
14
|
+
|
15
|
+
metric_to_extract: "embeddings" #Possible options: 'logits' or 'embeddings'
|
16
|
+
|
17
|
+
number_of_speakers: 3
|
18
|
+
subject_speakertag: "B"
|
19
|
+
#=========================================================
|
20
|
+
|
21
|
+
#Optional configurations; Change with preference. However, default settings recommended
|
22
|
+
fluency_task: &fluency_flag false
|
23
|
+
cleaning_options:
|
24
|
+
general_cleaning: true # General cleaning options used for most text preprocessing, default: True.
|
25
|
+
remove_brackets_and_bracketcontent: true
|
26
|
+
remove_timestamps: true
|
27
|
+
timestamp_pattern_example: "#00:00:19-00#"
|
28
|
+
remove_punctuation: false
|
29
|
+
lowercase: false
|
30
|
+
#Options for fluency tasks
|
31
|
+
fluency_task: *fluency_flag
|
32
|
+
word_splitter: null
|
33
|
+
remove_hyphens: null
|
34
|
+
remove_duplicates: null
|
35
|
+
|
36
|
+
options_logits:
|
37
|
+
chunk_size: 128
|
38
|
+
overlap_size: 64
|
39
|
+
tokenization_method: "model"
|
40
|
+
#method: "model_instance" # Options: model, regex, nltk, etc.
|
41
|
+
model_name: "DiscoResearch/Llama3-German-8B-32k" # Replace with your model instance name
|
42
|
+
remove_punctuation: true
|
43
|
+
lowercase: true
|
44
|
+
keep_speakertags: true
|
45
|
+
|
46
|
+
options_embeddings:
|
47
|
+
tokenization_method: "model_roberta" #or "whitespace", "model"
|
48
|
+
max_length: 512 #max sequence length
|
49
|
+
model_name: "xlm-roberta-base" #e.g. "fastText", "xlm-roberta-base"
|
50
|
+
pytorch_based_model: true
|
51
|
+
method: "model_instance"
|
52
|
+
remove_punctuation: false
|
53
|
+
lowercase: false
|
54
|
+
keep_speakertags: true
|
55
|
+
clean_embedding_tokens: true
|
56
|
+
output_options:
|
57
|
+
exclude_special_tokens: true
|
58
|
+
remove_'_'_character: true
|
59
|
+
remove_speaker_labels: true
|
60
|
+
remove_punctuation_and_symbols: true
|
61
|
+
remove_brackets_and_content: true
|
62
|
+
semantic-similarity: false
|
63
|
+
window_size: null
|
64
|
+
clean_tokens: false
|
65
|
+
|
66
|
+
distance-from-randomness: false
|
67
|
+
#================================================================================
|
68
|
+
|
69
|
+
#Extra configurations:
|
70
|
+
pipeline_options:
|
71
|
+
quality_check: false
|
72
|
+
clean_text: true
|
73
|
+
tokenize_text: false
|
74
|
+
normalize_text: false
|
75
|
+
|
76
|
+
general_cleaning_options:
|
77
|
+
strip_whitespace: true
|
78
|
+
merge_multiple_whitespaces: true
|
79
|
+
remove_whitespace_before_punctuation: true
|
80
|
+
merge_newline_characters: true
|
81
|
+
remove_backslashes: true
|
82
|
+
|
83
|
+
has_multiple_sections: false #evaluated independently
|
84
|
+
has_section_titles: false
|
85
|
+
section_identification: null #e.g. "Section:", 'null' if file does not have multiple sections, use pattern that is unlikely to appear in rest of transcript
|
86
|
+
number_of_sections: null #if 'null' number of sections automatically detected, however, specifying number recommended if known.
|
87
|
+
|
88
|
+
# Options for extract_embeddings
|
89
|
+
window_sizes: [2]
|
90
|
+
metric_function: cosine_similarity
|
91
|
+
aggregation_functions: mean_of_means
|
92
|
+
|
93
|
+
normalization_options:
|
94
|
+
method: "lemmatization" #Options: lemmatization or stemming
|
95
|
+
#================================================================
|
96
|
+
|
97
|
+
#Detail configurations; Changes optional, mostly used for quality checking / error handling
|
98
|
+
number_of_subjects: null # Specify number of subjects; if 'null', number of subjects is automatically detected
|
99
|
+
multiple_sessions: false # Set to True if multiple sessions per subject
|
100
|
+
|
101
|
+
recompute_everything: true #If set to 'false' pelican-nlp will try to reuse previously computed results stored on your drive
|
102
|
+
|
103
|
+
create_aggregation_of_results: false
|
104
|
+
output_document_information: false
|
105
|
+
|
106
|
+
|
@@ -0,0 +1,97 @@
|
|
1
|
+
{\rtf1\ansi\deff3\adeflang1025
|
2
|
+
{\fonttbl{\f0\froman\fprq2\fcharset0 Times New Roman;}{\f1\froman\fprq2\fcharset2 Symbol;}{\f2\fswiss\fprq2\fcharset0 Arial;}{\f3\froman\fprq2\fcharset0 Liberation Serif{\*\falt Times New Roman};}{\f4\froman\fprq2\fcharset0 Arial;}{\f5\fswiss\fprq2\fcharset0 Liberation Sans{\*\falt Arial};}{\f6\fnil\fprq2\fcharset0 Noto Sans CJK SC;}{\f7\fswiss\fprq0\fcharset128 Noto Sans Devanagari;}{\f8\fnil\fprq2\fcharset0 Noto Sans Devanagari;}}
|
3
|
+
{\colortbl;\red0\green0\blue0;\red0\green0\blue255;\red0\green255\blue255;\red0\green255\blue0;\red255\green0\blue255;\red255\green0\blue0;\red255\green255\blue0;\red255\green255\blue255;\red0\green0\blue128;\red0\green128\blue128;\red0\green128\blue0;\red128\green0\blue128;\red128\green0\blue0;\red128\green128\blue0;\red128\green128\blue128;\red192\green192\blue192;}
|
4
|
+
{\stylesheet{\s0\snext0\rtlch\af8\afs24\alang1081 \ltrch\lang1033\langfe2052\hich\af3\loch\hyphpar1\nowidctlpar\ltrpar\cf0\f3\fs24\lang1033\kerning1\dbch\af9\langfe2052 Normal;}
|
5
|
+
{\*\cs15\snext15 Footnote Characters;}
|
6
|
+
{\s16\sbasedon0\snext17\rtlch\af8\afs28 \ltrch\hich\af5\loch\hyphpar1\sb240\sa120\keepn\f5\fs28\dbch\af6 Heading;}
|
7
|
+
{\s17\sbasedon0\snext17\loch\sl276\slmult1\hyphpar1\sb0\sa140 Body Text;}
|
8
|
+
{\s18\sbasedon17\snext18\rtlch\af7 \ltrch\loch\sl276\slmult1\hyphpar1\sb0\sa140 List;}
|
9
|
+
{\s19\sbasedon0\snext19\rtlch\af7\afs24\ai \ltrch\loch\hyphpar1\sb120\sa120\noline\fs24\i Caption;}
|
10
|
+
{\s20\sbasedon0\snext20\rtlch\af7 \ltrch\loch\hyphpar1\noline Index;}
|
11
|
+
}{\*\generator LibreOffice/24.2.7.2$Linux_X86_64 LibreOffice_project/420$Build-2}{\info{\title 648866ebdbd870441d179a92}{\author Thomas Luthi-Bhatti}{\creatim\yr2023\mo6\dy14\hr17\min6}{\revtim\yr2025\mo2\dy4\hr13\min4}{\printim\yr0\mo0\dy0\hr0\min0}}{\*\userprops{\propname Operator}\proptype30{\staticval Ulrike Rachner}}\deftab720
|
12
|
+
\hyphauto1\viewscale100\formshade\paperh16838\paperw11906\margl1417\margr1417\margt1417\margb1398\sectd\sbknone\sftnnar\saftnnrlc\sectunlocked1\pgwsxn11906\pghsxn16838\marglsxn1417\margrsxn1417\margtsxn1417\margbsxn1398\ftnbj\ftnstart1\ftnrestart\ftnnar\aenddoc\aftnrstcont\aftnstart1\aftnnrlc
|
13
|
+
{\*\ftnsep\chftnsep}\pgndec\pard\plain \s0\rtlch\af8\afs24\alang1081 \ltrch\lang1033\langfe2052\hich\af3\loch\hyphpar1\nowidctlpar\ltrpar\cf0\f3\fs24\lang1033\kerning1\dbch\af9\langfe2052\sl100\slmult0\qc\hyphpar0\fi0\li0\lin0\ri0\rin0\sb238\sa0\ltrpar{\hich\af4\loch\fs24\lang1031\b0\f4\loch
|
14
|
+
ExampleTitle}
|
15
|
+
\par \pard\plain \s0\rtlch\af8\afs24\alang1081 \ltrch\lang1033\langfe2052\hich\af3\loch\hyphpar1\nowidctlpar\ltrpar\cf0\f3\fs24\lang1033\kerning1\dbch\af9\langfe2052\sl100\slmult0\ql\hyphpar0\fi0\li0\lin0\ri0\rin0\sb238\sa0\ltrpar{\hich\af4\loch\fs22\lang1031\b0\f4\loch
|
16
|
+
I: Das ist f\u252\'fcr mich. Ich m\u246\'f6chte, dass Sie \u252\'fcber ein paar Dinge aus Ihrem t\u228\'e4glichen Leben sprechen. Sie m\u252\'fcssen (keinerlei?) Namen nennen, w\u228\'e4hrend Sie dieses Ereignis beschreiben. K\u246\'f6nnen Sie mir ein wenig \u252\'fcber sich erz\u228\'e4hlen? #00:00:14-00# }
|
17
|
+
\par \pard\plain \s0\rtlch\af8\afs24\alang1081 \ltrch\lang1033\langfe2052\hich\af3\loch\hyphpar1\nowidctlpar\ltrpar\cf0\f3\fs24\lang1033\kerning1\dbch\af9\langfe2052\sl100\slmult0\ql\hyphpar0\fi0\li0\lin0\ri0\rin0\sb238\sa0\ltrpar{\hich\af4\loch\fs22\lang1031\b0\f4\loch
|
18
|
+
B: (In Schriftsprache.) Aus meinem t\u228\'e4glichen Leben. Ich habe seit / #00:00:22-00# }
|
19
|
+
\par \pard\plain \s0\rtlch\af8\afs24\alang1081 \ltrch\lang1033\langfe2052\hich\af3\loch\hyphpar1\nowidctlpar\ltrpar\cf0\f3\fs24\lang1033\kerning1\dbch\af9\langfe2052\sl100\slmult0\ql\hyphpar0\fi0\li0\lin0\ri0\rin0\sb238\sa0\ltrpar{\hich\af4\loch\fs22\lang1031\b0\f4\loch
|
20
|
+
I: Sie k\u246\'f6nnen auf Schweizerdeutsch. #00:00:23-00# }
|
21
|
+
\par \pard\plain \s0\rtlch\af8\afs24\alang1081 \ltrch\lang1033\langfe2052\hich\af3\loch\hyphpar1\nowidctlpar\ltrpar\cf0\f3\fs24\lang1033\kerning1\dbch\af9\langfe2052\sl100\slmult0\ql\hyphpar0\fi0\li0\lin0\ri0\rin0\sb238\sa0\ltrpar{\hich\af4\loch\fs22\lang1031\b0\f4\loch
|
22
|
+
B: (Wechselt zu Dialekt.) Ah ja, stimmt. Ich habe seit diverser Zeit die Angewohnheit, dass ich meinen Tag mit einem M\u252\'fcsli starte. Und zwar mache ich das jeden Morgen gleich, mit meinen Haferflocken, mit meinem M\u252\'fcsli, mit meinen Fr\u252\'fcchten. Die Fr\u252\'fcchte versuche ich immer, etwas zu variieren. Ein bisschen N\u252\'fcsse, ein bisschen Proteinpulver. Genau, so startet mein Tag. Dann gehe ich meistens an die Uni. Mache einfach meine Vorlesungen. Versuche, noch ein bisschen Sport in meinen Alltag zu bringen. Genau. Und nat\u252\'fcrlich auch, meine Freunde zu sehen. (Voll?). Abendessen zum Beispiel mache ich in letzter Zeit oft mit meinen Leuten. Oder zusammen Sport treiben, das ist nat\u252\'fcrlich megacool. Gerade so Beach Volleyball oder Badminton oder so, das sind halt so soziale Sportarten, die man ausf\u252\'fchren kann. Auch Paddle finde ich megacool, das kann man zu viert spielen. Genau. (unv.) #00:01:13-00# }
|
23
|
+
\par \pard\plain \s0\rtlch\af8\afs24\alang1081 \ltrch\lang1033\langfe2052\hich\af3\loch\hyphpar1\nowidctlpar\ltrpar\cf0\f3\fs24\lang1033\kerning1\dbch\af9\langfe2052\sl100\slmult0\ql\hyphpar0\fi0\li0\lin0\ri0\rin0\sb238\sa0\ltrpar{\hich\af4\loch\fs22\lang1031\b0\f4\loch
|
24
|
+
I: Cool. Und wie w\u252\'fcrden Sie sich selbst beschreiben? #00:01:18-00# }
|
25
|
+
\par \pard\plain \s0\rtlch\af8\afs24\alang1081 \ltrch\lang1033\langfe2052\hich\af3\loch\hyphpar1\nowidctlpar\ltrpar\cf0\f3\fs24\lang1033\kerning1\dbch\af9\langfe2052\sl100\slmult0\ql\hyphpar0\fi0\li0\lin0\ri0\rin0\sb238\sa0\ltrpar{\hich\af4\loch\fs22\lang1031\b0\f4\loch
|
26
|
+
B: Ich w\u252\'fcrde mich grunds\u228\'e4tzlich als sehr offen und freundlich beschreiben. Auch interessiert. Wie gesagt, im Moment ist jetzt gerade eine etwas tiefere Phase, was das anbelangt, aber grunds\u228\'e4tzlich bin ich sehr interessiert. Ich habe viele breite Interessen, ich kann mich f\u252\'fcr viele Sachen begeistern. Eben, was sich auch im Sport zeigt, zum Beispiel. Ich habe jetzt nicht eine Hauptsportart, sondern ich versuche, \u252\'fcberall ein bisschen Sachen zu lernen, genau. Dasselbe mit dem Lesen. Ich habe auch nicht einen Bereich, wo ich mich voll reingebe, sondern ich versuche, so ein bisschen breit alles aufzusaugen. Genau. Dasselbe auch mit Freundschaften. \u220\'dcberall ein bisschen verteilt. Genau. #00:02:02-00# }
|
27
|
+
\par \pard\plain \s0\rtlch\af8\afs24\alang1081 \ltrch\lang1033\langfe2052\hich\af3\loch\hyphpar1\nowidctlpar\ltrpar\cf0\f3\fs24\lang1033\kerning1\dbch\af9\langfe2052\sl100\slmult0\ql\hyphpar0\fi0\li0\lin0\ri0\rin0\sb238\sa0\ltrpar{\hich\af4\loch\fs22\lang1031\b0\f4\loch
|
28
|
+
I: Ja, lassen Sie uns wie \u252\'fcber /, zum Beispiel Ihre Heimat sprechen. Ja, k\u246\'f6nnen Sie mir ein bisschen \u252\'fcber Ihre Heimat erz\u228\'e4hlen? #00:02:21-00# }
|
29
|
+
\par \pard\plain \s0\rtlch\af8\afs24\alang1081 \ltrch\lang1033\langfe2052\hich\af3\loch\hyphpar1\nowidctlpar\ltrpar\cf0\f3\fs24\lang1033\kerning1\dbch\af9\langfe2052\sl100\slmult0\ql\hyphpar0\fi0\li0\lin0\ri0\rin0\sb238\sa0\ltrpar{\hich\af4\loch\fs22\lang1031\b0\f4\loch
|
30
|
+
B: Mein Zuhause, ich komme aus der Umgebung von [Stadt 1], aus einem kleinen Dorf. Es ist sehr /, wie sagt man? Es ist so ein bisschen ein Schweizer Dorf, wie man es sich vorstellt. Es ist alles im kleineren Rahmen, jeder kennt jeden. Es ist jetzt nicht so wie hier in [Stadt 2], wo alles anonym ist und so viele Leute und alles. Von daher, es ist alles ein bisschen ruhiger dort, alles ein bisschen langsamer. Aber sehr angenehm. Voll. Genau. Und ich mag meine Heimat sehr. Ich bin zwar sozial nicht so verbunden mit meiner Heimat, jetzt abgesehen von meiner Familie einfach, aber es gibt einem ein gut /, also, es ist sch\u246\'f6n, dort zu sein. Eine gute Grundstimmung. Genau. #00:03:04-00# }
|
31
|
+
\par \pard\plain \s0\rtlch\af8\afs24\alang1081 \ltrch\lang1033\langfe2052\hich\af3\loch\hyphpar1\nowidctlpar\ltrpar\cf0\f3\fs24\lang1033\kerning1\dbch\af9\langfe2052\sl100\slmult0\ql\hyphpar0\fi0\li0\lin0\ri0\rin0\sb238\sa0\ltrpar{\hich\af4\loch\fs22\lang1031\b0\f4\loch
|
32
|
+
I: Und haben Sie vielleicht eine Lieblingsstadt? #00:03:09-00# }
|
33
|
+
\par \pard\plain \s0\rtlch\af8\afs24\alang1081 \ltrch\lang1033\langfe2052\hich\af3\loch\hyphpar1\nowidctlpar\ltrpar\cf0\f3\fs24\lang1033\kerning1\dbch\af9\langfe2052\sl100\slmult0\ql\hyphpar0\fi0\li0\lin0\ri0\rin0\sb238\sa0\ltrpar{\hich\af4\loch\fs22\lang1031\b0\f4\loch
|
34
|
+
B: Eine Lieblingsstadt? Lieblingsstadt. Ich glaube, ich w\u252\'fcrde wieder [Stadt 3] sagen. Eben, von meinem zweimonatigen Sportaufenthalt. Es ist ein sehr, sehr cooler Vybe, der in dieser Stadt ist. Ich finde [Stadt 2] cool vom Angebot, also, man kann so viel machen in [Stadt 2]. Aber ich finde es leider auch ein bisschen unpers\u246\'f6nlich, und es ist auch etwas hektisch. Teilweise finde ich das okay, teilweise finde ich das weniger cool. Aber ja, ich w\u252\'fcrde, glaube ich, mit [Stadt 3] gehen, weil die Leute einfach megacool sind. Plus, dort hat man auch noch ein bisschen Strand, man ist noch ein bisschen am Wasser. Das hat man in [Stadt 2] nat\u252\'fcrlich auch, aber dort hat man noch etwas gr\u246\'f6ssere M\u246\'f6glichkeiten, in [Stadt 3]. Ja. Ich glaube, ich w\u252\'fcrde mit [Stadt 3] gehen. #00:04:01-00# }
|
35
|
+
\par \pard\plain \s0\rtlch\af8\afs24\alang1081 \ltrch\lang1033\langfe2052\hich\af3\loch\hyphpar1\nowidctlpar\ltrpar\cf0\f3\fs24\lang1033\kerning1\dbch\af9\langfe2052\sl100\slmult0\ql\hyphpar0\fi0\li0\lin0\ri0\rin0\sb238\sa0\ltrpar{\hich\af4\loch\fs22\lang1031\b0\f4\loch
|
36
|
+
I: Wenn Sie zur\u252\'fcckdenken, k\u246\'f6nnen Sie mir eine Geschichte \u252\'fcber etwas Wichtiges erz\u228\'e4hlen, das in Ihrem Leben passiert ist? Die Geschichte kann aus einer beliebigen Zeit Ihres Lebens stammen, aus Ihrer Kindheit oder auch vor Kurzem. Sie brauchen keine Namen zu nennen, wenn Sie dieses Ereignis beschreiben. #00:04:19-00# }
|
37
|
+
\par \pard\plain \s0\rtlch\af8\afs24\alang1081 \ltrch\lang1033\langfe2052\hich\af3\loch\hyphpar1\nowidctlpar\ltrpar\cf0\f3\fs24\lang1033\kerning1\dbch\af9\langfe2052\sl100\slmult0\ql\hyphpar0\fi0\li0\lin0\ri0\rin0\sb238\sa0\ltrpar{\hich\af4\loch\fs22\lang1031\b0\f4\loch
|
38
|
+
B: Wichtiges Ereignis. Ich glaube, ich w\u252\'fcrde auch wieder eine Story aus [Stadt 3] erz\u228\'e4hlen. Weil ich dort einen megacoolen Menschen kennengelernt habe, der jetzt mein bester Freund geworden ist. Einer meiner besten Freunde. Und wir haben damals sehr spontan gesagt: "Hey, komm, wir gehen in die Ferien". Das war nach [Region 1]. Und wir haben uns keine Unterkunft gebucht, sondern sind einfach so gegangen und haben gehofft, dass wir irgendjemanden finden. Denn wir gingen aus und hatten als Ziel, dass wir irgendjemand finden, der uns hostet. Und dann war es aber ein bisschen komisch, denn irgendwie um 24:00 Uhr oder 1:00 Uhr haben alle Clubs zugemacht dort. Und wir hatten leider noch niemand Richtigen gefunden. Und dann gingen alle nach Hause, das war ein bisschen komisch. Und dann haben wir schlussendlich eine Nacht im Freien verbracht in [Region 1]. Also genau, jetzt weiss ich gar nicht mehr /. [Stadt 4] heisst die Stadt. Genau. Dort. Ja, und das war eine ziemlich pr\u228\'e4gende Erfahrung. Einerseits, weil ich mal wie gesp\u252\'fcrt habe, wie es ist, eine Nacht ohne zuhause zu verbringen. So draussen. Wir haben dann auf so Parkb\u228\'e4nken geschlafen. Und andererseits war das so der Kickstart unserer Freundschaft. Weil das so einfach ein Ereignis war, das uns mega zusammengeschweisst hat. Ja, und das war ein pr\u228\'e4gendes Ereignis. Genau. #00:05:49-00#}
|
39
|
+
\par \pard\plain \s0\rtlch\af8\afs24\alang1081 \ltrch\lang1033\langfe2052\hich\af3\loch\hyphpar1\nowidctlpar\ltrpar\cf0\f3\fs24\lang1033\kerning1\dbch\af9\langfe2052\sl100\slmult0\ql\hyphpar0\fi0\li0\lin0\ri0\rin0\sb238\sa0\ltrpar{\hich\af4\loch\fs22\lang1031\b0\f4\loch
|
40
|
+
I: Ich m\u246\'f6chte Sie nun bitten, dass Sie ein wenig \u252\'fcber Ihre Gesundheit sprechen. Sie brauchen keine Namen zu nennen. Glauben Sie, dass Sie eine psychische Krankheit haben? Und wenn ja, worum handelt es sich Ihrer Meinung nach? #00:06:03-00# }
|
41
|
+
\par \pard\plain \s0\rtlch\af8\afs24\alang1081 \ltrch\lang1033\langfe2052\hich\af3\loch\hyphpar1\nowidctlpar\ltrpar\cf0\f3\fs24\lang1033\kerning1\dbch\af9\langfe2052\sl100\slmult0\ql\hyphpar0\fi0\li0\lin0\ri0\rin0\sb238\sa0\ltrpar{\hich\af4\loch\fs22\lang1031\b0\f4\loch
|
42
|
+
B: Meine Gesundheit hat sich in letzter Zeit etwas ver\u228\'e4ndert. Also, physisch bin ich relativ gesund. Da habe ich, klopf auf Holz, keine Probleme. Psychisch war in letzter Zeit etwas schwierig. Ich war megalang megahappy und zufrieden mit meinem Leben und mir ging es gut. Und ja, jetzt in letzter Zeit sind ein paar Sachen dazugekommen. Eben so die Trennung von meiner Ex, und so ein bisschen die Zukunfts\u228\'e4ngste. Es ist noch schwierig, was zuerst kam oder wie das alles zusammenh\u228\'e4ngt. Von daher w\u252\'fcrde ich schon sagen, dass ich im Moment psychisch nicht voll auf der H\u246\'f6he bin. Leider. Aber ich habe das Gef\u252\'fchl, dass das halt auch einfach eine Phase ist, die man akzeptieren muss. Und ich habe wirklich ein super Umfeld, das mich abholt. Und ich bin zuversichtlich. #00:06:58-00# }
|
43
|
+
\par \pard\plain \s0\rtlch\af8\afs24\alang1081 \ltrch\lang1033\langfe2052\hich\af3\loch\hyphpar1\nowidctlpar\ltrpar\cf0\f3\fs24\lang1033\kerning1\dbch\af9\langfe2052\sl100\slmult0\ql\hyphpar0\fi0\li0\lin0\ri0\rin0\sb238\sa0\ltrpar{\hich\af4\loch\fs22\lang1031\b0\f4\loch
|
44
|
+
I: Und wurde Ihnen eine Diagnose gestellt? #00:07:03-00# }
|
45
|
+
\par \pard\plain \s0\rtlch\af8\afs24\alang1081 \ltrch\lang1033\langfe2052\hich\af3\loch\hyphpar1\nowidctlpar\ltrpar\cf0\f3\fs24\lang1033\kerning1\dbch\af9\langfe2052\sl100\slmult0\ql\hyphpar0\fi0\li0\lin0\ri0\rin0\sb238\sa0\ltrpar{\hich\af4\loch\fs22\lang1031\b0\f4\loch
|
46
|
+
B: Nein. #00:07:04-00# }
|
47
|
+
\par \pard\plain \s0\rtlch\af8\afs24\alang1081 \ltrch\lang1033\langfe2052\hich\af3\loch\hyphpar1\nowidctlpar\ltrpar\cf0\f3\fs24\lang1033\kerning1\dbch\af9\langfe2052\sl100\slmult0\ql\hyphpar0\fi0\li0\lin0\ri0\rin0\sb238\sa0\ltrpar{\hich\af4\loch\fs22\lang1031\b0\f4\loch
|
48
|
+
I: Okay. Wurde Ihnen jemals vorgeschlagen, sich in Behandlung wegen Ihrer psychischen Gesundheit zu begeben? Und wenn ja, warum? #00:07:17-00# }
|
49
|
+
\par \pard\plain \s0\rtlch\af8\afs24\alang1081 \ltrch\lang1033\langfe2052\hich\af3\loch\hyphpar1\nowidctlpar\ltrpar\cf0\f3\fs24\lang1033\kerning1\dbch\af9\langfe2052\sl100\slmult0\ql\hyphpar0\fi0\li0\lin0\ri0\rin0\sb238\sa0\ltrpar{\hich\af4\loch\fs22\lang1031\b0\f4\loch
|
50
|
+
B: Ja. Das wurde mir vorgeschlagen, einfach von meinen Freunden, mit denen ich das so ein bisschen share. Ich f\u252\'fchle mich im Moment eben noch nicht so bereit dazu. Von daher, ich glaube, das braucht alles noch ein bisschen Zeit. Und ich w\u252\'fcrde auch wie zuerst gerne schauen, ob ich damit klarkomme oder nicht. Aber ja, es wurde mir aus dem Grund empfohlen worden, dass es vielleicht auch einfach hilfreich ist, mit einer professionellen Person das Ganze anzusehen. Es ist in the Back of my Mind, aber im Moment /. Ich habe mir jetzt so ein bisschen eine Limite gesetzt, wenn es bis dann und dann nicht signifikant besser ist, dann mache ich diesen Schritt dann. Genau. #00:07:57-00#}
|
51
|
+
\par \pard\plain \s0\rtlch\af8\afs24\alang1081 \ltrch\lang1033\langfe2052\hich\af3\loch\hyphpar1\nowidctlpar\ltrpar\cf0\f3\fs24\lang1033\kerning1\dbch\af9\langfe2052\sl100\slmult0\ql\hyphpar0\fi0\li0\lin0\ri0\rin0\sb238\sa0\ltrpar{\hich\af4\loch\fs22\lang1031\b0\f4\loch
|
52
|
+
I: Und wie hat sich eigentlich ihr Leben, seit Beginn dieser psychischen Ver\u228\'e4nderung ver\u228\'e4ndert? #00:08:05-00# }
|
53
|
+
\par \pard\plain \s0\rtlch\af8\afs24\alang1081 \ltrch\lang1033\langfe2052\hich\af3\loch\hyphpar1\nowidctlpar\ltrpar\cf0\f3\fs24\lang1033\kerning1\dbch\af9\langfe2052\sl100\slmult0\ql\hyphpar0\fi0\li0\lin0\ri0\rin0\sb238\sa0\ltrpar{\hich\af4\loch\fs22\lang1031\b0\f4\loch
|
54
|
+
B: Ich kann nicht mehr so diese Lebensfreude und diese Neugier ausstrahlen, leider. Also, eben, du hast ja auch vorhin gefragt, wie ich mich beschreiben w\u252\'fcrde. Eigentlich bin ich ein sehr lebensfroher Mensch, und sehr neugierig und fasziniert von vielen Sachen. Und das habe ich ein bisschen verloren. Und das ist megaschade. Also, ich vermisse diesen Teil von mir von fr\u252\'fcher. Und ich sp\u252\'fcre, der ist noch da, aber er ist jetzt einfach nicht an der Oberfl\u228\'e4che, sondern noch etwas versteckt. Ja. Aber das Ziel ist, dass der nat\u252\'fcrlich langfristig wieder rauskommt. Genau. #00:08:41-00# }
|
55
|
+
\par \pard\plain \s0\rtlch\af8\afs24\alang1081 \ltrch\lang1033\langfe2052\hich\af3\loch\hyphpar1\nowidctlpar\ltrpar\cf0\f3\fs24\lang1033\kerning1\dbch\af9\langfe2052\sl100\slmult0\ql\hyphpar0\fi0\li0\lin0\ri0\rin0\sb238\sa0\ltrpar{\hich\af4\loch\fs22\lang1031\b0\f4\loch
|
56
|
+
I: Danke. Okay. Ich werde Ihnen jetzt drei Bilder zeigen, und eins nach dem anderen. Jedes Mal, wenn ich das Bild vor Sie lege, m\u246\'f6chte ich Sie bitten, das Bild so vollst\u228\'e4ndig wie m\u246\'f6glich zu beschreiben. Sagen Sie mir, was Sie auf dem Bild sehen und was Ihrer Meinung nach passieren k\u246\'f6nnte. Bitte sprechen Sie, bis ich Stopp sage. (...) Bild Nummer zwei. Bitte sagen Sie, was Sie auf diesem Bild sehen. #00:09:10-00# }
|
57
|
+
\par \pard\plain \s0\rtlch\af8\afs24\alang1081 \ltrch\lang1033\langfe2052\hich\af3\loch\hyphpar1\nowidctlpar\ltrpar\cf0\f3\fs24\lang1033\kerning1\dbch\af9\langfe2052\sl100\slmult0\ql\hyphpar0\fi0\li0\lin0\ri0\rin0\sb238\sa0\ltrpar{\hich\af4\loch\fs22\lang1031\b0\f4\loch
|
58
|
+
B: (Startet in Schriftsprache.) Auf diesem Bild sind /. (Wechselt zu Dialekt.) Auf diesem Bild sind drei Personen abgebildet. Und ein Pferd. Links sieht man eine Person, die einen etwas traurigen Gesichtsausdruck hat. Das ist eine Frau mit zwei B\u252\'fcchern in der Hand. Die so ein bisschen in die Ferne schaut. In der Mitte sieht man von hinten einen Bauern, nehme ich mal an, oben ohne, neben seinem Pferd, der gerade dabei ist, sein Feld zu pfl\u252\'fcgen. Und auf der rechten Seite sieht man eine Frau mit Kopftuch, die gegen einen Baum lehnt. Und wie es aussieht, ist diese Frau schwanger. Und sie schaut auch so ein bisschen gegen den Horizont. Im Hintergrund erkennt man ein Haus. Ich nehme an, dass es sich ums Bauernhaus handeln k\u246\'f6nnte. Genau. Voll. Die Landschaft ist /, wenn ich das richtig sehe, hat es da Wasser im Hintergrund, es ist eine etwas h\u252\'fcgelige Landschaft mit diversen /, also mit einzelnen B\u228\'e4umen. Aber es ist jetzt nicht megadicht bewachsen. Der Himmel sieht sch\u246\'f6n aus. Also, es ist gerade sonnig, ich nehme an, es ist Sommer. Die Leute sind nicht megawarm gekleidet, von daher, genau, spricht das wahrscheinlich f\u252\'fcr Sommer. Ah, und im Hintergrund sieht man auch nochmal, ein bisschen kleiner, ein Pferd und wahrscheinlich auch ein anderer Bauer, der auch mit Feldarbeit besch\u228\'e4ftigt ist. Ja. #00:10:37-00# }
|
59
|
+
\par \pard\plain \s0\rtlch\af8\afs24\alang1081 \ltrch\lang1033\langfe2052\hich\af3\loch\hyphpar1\nowidctlpar\ltrpar\cf0\f3\fs24\lang1033\kerning1\dbch\af9\langfe2052\sl100\slmult0\ql\hyphpar0\fi0\li0\lin0\ri0\rin0\sb238\sa0\ltrpar{\hich\af4\loch\fs22\lang1031\b0\f4\loch
|
60
|
+
I: Danke sch\u246\'f6n. Bild Nummer vier. Was passiert auf diesem Bild? Oder was sehen Sie auf diesem Bild? #00:10:46-00# }
|
61
|
+
\par \pard\plain \s0\rtlch\af8\afs24\alang1081 \ltrch\lang1033\langfe2052\hich\af3\loch\hyphpar1\nowidctlpar\ltrpar\cf0\f3\fs24\lang1033\kerning1\dbch\af9\langfe2052\sl100\slmult0\ql\hyphpar0\fi0\li0\lin0\ri0\rin0\sb238\sa0\ltrpar{\hich\af4\loch\fs22\lang1031\b0\f4\loch
|
62
|
+
B: Auf diesem Bild sieht man einen Mann und eine Frau, die sich im Arm halten. Die Frau macht mir Ihrem Blick /, es sind zwei sch\u246\'f6ne Personen. (lacht.) Wahrscheinlich ist das vielleicht irgendwie von einem Film oder so. Die Frau h\u228\'e4lt sich am Mann fest und sieht ihn an. Sie ist geschminkt und hat eine sch\u246\'f6ne Frisur. Und der Mann wirkt aber so ein bisschen hastig. Sieht auch in die andere Richtung und wirkt, als ob er eigentlich losm\u252\'fcsste. Genau. Genau. Und es ist so ein bisschen von oben belichtet, also er hat auch so ein bisschen Schatten im Gesicht. Bei ihm ist irgendwas am Laufen, was /, also, der macht sich jetzt gerade Gedanken \u252\'fcber etwas anderes, und die Frau ist sehr belichtet, hat ein helles Gesicht und sieht ihn an. Und sie ist wahrscheinlich ein bisschen auf ihn fokussiert, und er auf irgendwas anderes, das ihn besch\u228\'e4ftigt. Genau. Und im Hintergrund erkennt man nochmal eine Person. Aber ich erkenne nicht wirklich, was das f\u252\'fcr eine Person ist. Ja. Voll. #00:12:00-00# }
|
63
|
+
\par \pard\plain \s0\rtlch\af8\afs24\alang1081 \ltrch\lang1033\langfe2052\hich\af3\loch\hyphpar1\nowidctlpar\ltrpar\cf0\f3\fs24\lang1033\kerning1\dbch\af9\langfe2052\sl100\slmult0\ql\hyphpar0\fi0\li0\lin0\ri0\rin0\sb238\sa0\ltrpar{\hich\af4\loch\fs22\lang1031\b0\f4\loch
|
64
|
+
I: Danke sch\u246\'f6n. Und Bild Nummer 17GF, was sehen Sie auf diesem Bild? #00:12:09-00# }
|
65
|
+
\par \pard\plain \s0\rtlch\af8\afs24\alang1081 \ltrch\lang1033\langfe2052\hich\af3\loch\hyphpar1\nowidctlpar\ltrpar\cf0\f3\fs24\lang1033\kerning1\dbch\af9\langfe2052\sl100\slmult0\ql\hyphpar0\fi0\li0\lin0\ri0\rin0\sb238\sa0\ltrpar{\hich\af4\loch\fs22\lang1031\b0\f4\loch
|
66
|
+
B: Auf diesem Bild sieht man /, das Bild ist abstrakter als die anderen beiden vorhin. Man sieht /, es ist eine spannende Perspektive, denn man sieht so von einem Fluss unter eine Br\u252\'fccke, und so ein bisschen in die Sonne. Auf dem Fluss sieht man, wie Leute am Arbeiten sind. Wie sie irgendeinen Rohstoff transportieren oder so. Sie sind gerade in einem Boot, das angemacht ist am Ufer und sie verladen gerade irgendetwas oder entladen es von dem Boot. Genau. Auf der Br\u252\'fccke ist noch eine Frau zu erkennen, die irgendwie in den Fluss hinunter blickt. Und man sieht auch noch /, wahrscheinlich ist das irgendwie das Gesch\u228\'e4ft oder so von diesen Leuten, die dort das Zeug entladen und beladen auf der linken Seite. Und auf der rechten Seite sieht man die Sonne, die scheint, die aber verdeckt ist von Wolken. Also, die Sonnenstrahlen brechen so durch die Wolken hindurch und belichten die ganze Szenerie. Genau. #00:13:23-00# }
|
67
|
+
\par \pard\plain \s0\rtlch\af8\afs24\alang1081 \ltrch\lang1033\langfe2052\hich\af3\loch\hyphpar1\nowidctlpar\ltrpar\cf0\f3\fs24\lang1033\kerning1\dbch\af9\langfe2052\sl100\slmult0\ql\hyphpar0\fi0\li0\lin0\ri0\rin0\sb238\sa0\ltrpar{\hich\af4\loch\fs22\lang1031\b0\f4\loch
|
68
|
+
I: Danke. Gut, ich werde Ihnen nun einige Bilder aus einer Geschichte zeigen. Sie k\u246\'f6nnen sich so viel Zeit nehmen, wie Sie brauchen, um die Bilder anzuschauen. Nachdem Sie alle Bilder der Reihe nach angesehen haben, m\u246\'f6chte ich Sie bitten, mir die Geschichten auf den Bildern in Ihren eigenen Worten zu erz\u228\'e4hlen. Das ist die Geschichte. #00:13:47-00# }
|
69
|
+
\par \pard\plain \s0\rtlch\af8\afs24\alang1081 \ltrch\lang1033\langfe2052\hich\af3\loch\hyphpar1\nowidctlpar\ltrpar\cf0\f3\fs24\lang1033\kerning1\dbch\af9\langfe2052\sl100\slmult0\ql\hyphpar0\fi0\li0\lin0\ri0\rin0\sb238\sa0\ltrpar{\hich\af4\loch\fs22\lang1031\b0\f4\loch
|
70
|
+
B: (...) Gut. #00:14:00-00# }
|
71
|
+
\par \pard\plain \s0\rtlch\af8\afs24\alang1081 \ltrch\lang1033\langfe2052\hich\af3\loch\hyphpar1\nowidctlpar\ltrpar\cf0\f3\fs24\lang1033\kerning1\dbch\af9\langfe2052\sl100\slmult0\ql\hyphpar0\fi0\li0\lin0\ri0\rin0\sb238\sa0\ltrpar{\hich\af4\loch\fs22\lang1031\b0\f4\loch
|
72
|
+
I: Gut. Bitte legen Sie jetzt die Bilder weg und erz\u228\'e4hlen Sie mir so viel von der Geschichte, wie Sie k\u246\'f6nnen. Sie k\u246\'f6nnen alle Details der Geschichte und der Bilder verwenden, die Sie gerade angeschaut haben. #00:14:10-00# }
|
73
|
+
\par \pard\plain \s0\rtlch\af8\afs24\alang1081 \ltrch\lang1033\langfe2052\hich\af3\loch\hyphpar1\nowidctlpar\ltrpar\cf0\f3\fs24\lang1033\kerning1\dbch\af9\langfe2052\sl100\slmult0\ql\hyphpar0\fi0\li0\lin0\ri0\rin0\sb238\sa0\ltrpar{\hich\af4\loch\fs22\lang1031\b0\f4\loch
|
74
|
+
B: Okay. Gut. Also, auf diesen Bildern wurde die Geschichte eines Leuchtturmwarts erz\u228\'e4hlt. Und zwar sieht er, dass er einen Riss hat in seinem Leuchtturm. Er wird darauf aufmerksam, dass sein Leuchtturm nicht mehr in einem guten Zustand ist. Und dann sieht er, dass ein Schiff auf dem Meer draussen ist. Und dem sollte er eigentlich leuchten mit seinem Leuchtturm, das ist ja die Funktion des Leuchtturms. Und dann geht er hoch zu seiner Leuchtturmlampe und sieht, dass die kaputt ist. Und als Folge, um irgendein Signal senden zu k\u246\'f6nnen, z\u252\'fcndet er irgendwie sein Haus an. Und dann sehen die auf dem Schiff, dass das Haus brennt neben dem Leuchtturm, und \u228\'e4ndern dann ihren Kurs. Also, die sind dann wie gesch\u252\'fctzt dadurch, dass sie sehen: Hey, da ist irgendwas. Also, der Leuchtturm muss sie warnen, weil das Meer dort turbulent sind oder es irgendwie Steine hat im Meer. Genau. Und um das Schiff zu warnen, opfert er halt wie sein Haus. Und ist aber trotzdem sehr zufrieden damit, denn er geht dann einfach im Leuchtturm schlafen und schl\u228\'e4ft mit einem L\u228\'e4cheln ein, dass er das Schiff vor dem Auflaufen oder vor dem Kentern bewahrt hat. Genau. #00:15:36-00# }
|
75
|
+
\par \pard\plain \s0\rtlch\af8\afs24\alang1081 \ltrch\lang1033\langfe2052\hich\af3\loch\hyphpar1\nowidctlpar\ltrpar\cf0\f3\fs24\lang1033\kerning1\dbch\af9\langfe2052\sl100\slmult0\ql\hyphpar0\fi0\li0\lin0\ri0\rin0\sb238\sa0\ltrpar{\hich\af4\loch\fs22\lang1031\b0\f4\loch
|
76
|
+
I: Danke. Gut. Menschen haben oft wiederkehrende Tr\u228\'e4ume. Haben Sie auch solche Tr\u228\'e4ume, und wenn ja, k\u246\'f6nnen Sie mir einen davon beschreiben? #00:15:47-00# }
|
77
|
+
\par \pard\plain \s0\rtlch\af8\afs24\alang1081 \ltrch\lang1033\langfe2052\hich\af3\loch\hyphpar1\nowidctlpar\ltrpar\cf0\f3\fs24\lang1033\kerning1\dbch\af9\langfe2052\sl100\slmult0\ql\hyphpar0\fi0\li0\lin0\ri0\rin0\sb238\sa0\ltrpar{\hich\af4\loch\fs22\lang1031\b0\f4\loch
|
78
|
+
B: Im Moment habe ich das nicht mehr. Aber fr\u252\'fcher hatte ich das als Kind. Und zwar hatte ich immer einen Traum: Dass ich mit meinen Eltern im Zoo war. #00:15:59-00# }
|
79
|
+
\par \pard\plain \s0\rtlch\af8\afs24\alang1081 \ltrch\lang1033\langfe2052\hich\af3\loch\hyphpar1\nowidctlpar\ltrpar\cf0\f3\fs24\lang1033\kerning1\dbch\af9\langfe2052\sl100\slmult0\ql\hyphpar0\fi0\li0\lin0\ri0\rin0\sb238\sa0\ltrpar{\hich\af4\loch\fs22\lang1031\b0\f4\loch
|
80
|
+
I: Im Zoo? #00:15:56-00# }
|
81
|
+
\par \pard\plain \s0\rtlch\af8\afs24\alang1081 \ltrch\lang1033\langfe2052\hich\af3\loch\hyphpar1\nowidctlpar\ltrpar\cf0\f3\fs24\lang1033\kerning1\dbch\af9\langfe2052\sl100\slmult0\ql\hyphpar0\fi0\li0\lin0\ri0\rin0\sb238\sa0\ltrpar{\hich\af4\loch\fs22\lang1031\b0\f4\loch
|
82
|
+
B: Im Zoo. Genau. Im Zoo war. Und dort hatten sie mir einen Heliumballon gekauft. So diese normalen Ballons. Und es waren aber irgendwie zu viele, und ich bin dann davongeflogen. Und es ist so ein bisschen ein klassischer Traum. Und zwar bin ich dann wie so abgehoben und habe den ganzen Zoo von oben gesehen, und speziell auch die Elefanten, die sind mir immer noch mega in Erinnerung. Dass ich dort immer Elefanten gesehen habe. Das waren n\u228\'e4mlich meine Lieblingstiere damals. Genau. Und dann bin ich so davongeflogen. Und ab irgendeiner H\u246\'f6he, als ich dann den ganzen Zoo gesehen hatte, war der Traum immer fertig. Genau. #00:16:44-00# }
|
83
|
+
\par \pard\plain \s0\rtlch\af8\afs24\alang1081 \ltrch\lang1033\langfe2052\hich\af3\loch\hyphpar1\nowidctlpar\ltrpar\cf0\f3\fs24\lang1033\kerning1\dbch\af9\langfe2052\sl100\slmult0\ql\hyphpar0\fi0\li0\lin0\ri0\rin0\sb238\sa0\ltrpar{\hich\af4\loch\fs22\lang1031\b0\f4\loch
|
84
|
+
I: Gut. Auf dieser Seite sehen Sie eine einseitig geschriebene Geschichte. Und ich m\u246\'f6chte Sie bitten, mir jeden Satz von Anfang bis Ende laut vorzulesen. #00:16:56-00# }
|
85
|
+
\par \pard\plain \s0\rtlch\af8\afs24\alang1081 \ltrch\lang1033\langfe2052\hich\af3\loch\hyphpar1\nowidctlpar\ltrpar\cf0\f3\fs24\lang1033\kerning1\dbch\af9\langfe2052\sl100\slmult0\ql\hyphpar0\fi0\li0\lin0\ri0\rin0\sb238\sa0\ltrpar{\hich\af4\loch\fs22\lang1031\b0\f4\loch
|
86
|
+
B: (liest in Schriftsprache.) Es war ein heisser Tag. Ein durstiger Vogel suchte lange Zeit nach Wasser. Sie war sehr m\u252\'fcde und stand kurz davor, in Ohnmacht zu fallen. Pl\u246\'f6tzlich entdeckte sie einen Krug mit Wasser unter einer Parkbank. Sie flog hinunter und setzte sich auf den Krug. Sie konnte etwas Wasser darin sehen, aber es war zu tief f\u252\'fcr sie, um es zu erreichen. Der Schnabel war nicht lang genug, um das Wasser zu trinken. Sie sah sich um und fand ein paar Kieselsteine. Das brachte sie auf eine Idee. Sie hob die Kieselsteine einzeln auf und liess sie in den Krug fallen. Bald steig der Wasserstand. Nun konnte sie es erreichen und trinken. Der Vogel flog fr\u246\'f6hlich davon. #00:17:41-00# }
|
87
|
+
\par \pard\plain \s0\rtlch\af8\afs24\alang1081 \ltrch\lang1033\langfe2052\hich\af3\loch\hyphpar1\nowidctlpar\ltrpar\cf0\f3\fs24\lang1033\kerning1\dbch\af9\langfe2052\sl100\slmult0\ql\hyphpar0\fi0\li0\lin0\ri0\rin0\sb238\sa0\ltrpar{\hich\af4\loch\fs22\lang1031\b0\f4\loch
|
88
|
+
I: Gut. Jetzt haben Sie eine Minute Zeit, um den Text durchzugehen, danach bitte ich Sie, das Blatt wegzulegen und mir die Geschichte in eigenen Worten zu erz\u228\'e4hlen. #00:17:51-00# }
|
89
|
+
\par \pard\plain \s0\rtlch\af8\afs24\alang1081 \ltrch\lang1033\langfe2052\hich\af3\loch\hyphpar1\nowidctlpar\ltrpar\cf0\f3\fs24\lang1033\kerning1\dbch\af9\langfe2052\sl100\slmult0\ql\hyphpar0\fi0\li0\lin0\ri0\rin0\sb238\sa0\ltrpar{\hich\af4\loch\fs22\lang1031\b0\f4\loch
|
90
|
+
B: Okay. #00:17:52-00# }
|
91
|
+
\par \pard\plain \s0\rtlch\af8\afs24\alang1081 \ltrch\lang1033\langfe2052\hich\af3\loch\hyphpar1\nowidctlpar\ltrpar\cf0\f3\fs24\lang1033\kerning1\dbch\af9\langfe2052\sl100\slmult0\ql\hyphpar0\fi0\li0\lin0\ri0\rin0\sb238\sa0\ltrpar{\hich\af4\loch\fs22\lang1031\b0\f4\loch
|
92
|
+
(Stille. B liest. #00:17:52-00# - #00:19:13-00#)}
|
93
|
+
\par \pard\plain \s0\rtlch\af8\afs24\alang1081 \ltrch\lang1033\langfe2052\hich\af3\loch\hyphpar1\nowidctlpar\ltrpar\cf0\f3\fs24\lang1033\kerning1\dbch\af9\langfe2052\sl100\slmult0\ql\hyphpar0\fi0\li0\lin0\ri0\rin0\sb238\sa0\ltrpar{\hich\af4\loch\fs22\lang1031\b0\f4\loch
|
94
|
+
B: (in Schriftsprache.) Gut. Also, die Geschichte handelt von einem weiblichen Vogel an einem heissen Tag. Der Vogel ist ersch\u246\'f6pft von der Hitze. Und droht schon fast, in Ohnmacht zu fallen. Und ist auf der Suche nach Wasser. Und findet auch einen Krug Wasser unter einer Parkbank. Das Problem ist jedoch, dass der Wasserpegel zu niedrig ist, also der Vogel kommt gar nicht an das Wasser heran. Und anschliessend hat er die Idee, oder sie in diesem Fall, hat sie die Idee, dass sie ein paar Kieselsteine, die in der N\u228\'e4he liegen, einfach in den Krug fallenlassen kann. Was nat\u252\'fcrlich dazu f\u252\'fchrt, dass der Wasserpegel steigt und sie anschliessend trinken kann. Was sie dann auch macht, und sie kann trinken und ist nicht mehr so durstig. Und die Geschichte ist fertig. Genau. #00:20:09-00# }
|
95
|
+
\par \pard\plain \s0\rtlch\af8\afs24\alang1081 \ltrch\lang1033\langfe2052\hich\af3\loch\hyphpar1\nowidctlpar\ltrpar\cf0\f3\fs24\lang1033\kerning1\dbch\af9\langfe2052\sl100\slmult0\ql\hyphpar0\fi0\li0\lin0\ri0\rin0\sb238\sa0\ltrpar{\hich\af4\loch\fs22\lang1031\b0\f4\loch
|
96
|
+
I: Danke sch\u246\'f6n. }
|
97
|
+
\par }
|
@@ -0,0 +1,13 @@
|
|
1
|
+
<component name="InspectionProjectProfileManager">
|
2
|
+
<profile version="1.0">
|
3
|
+
<option name="myName" value="Project Default" />
|
4
|
+
<inspection_tool class="PyPep8NamingInspection" enabled="true" level="WEAK WARNING" enabled_by_default="true">
|
5
|
+
<option name="ignoredErrors">
|
6
|
+
<list>
|
7
|
+
<option value="N802" />
|
8
|
+
<option value="N806" />
|
9
|
+
</list>
|
10
|
+
</option>
|
11
|
+
</inspection_tool>
|
12
|
+
</profile>
|
13
|
+
</component>
|
@@ -0,0 +1,8 @@
|
|
1
|
+
<?xml version="1.0" encoding="UTF-8"?>
|
2
|
+
<project version="4">
|
3
|
+
<component name="ProjectModuleManager">
|
4
|
+
<modules>
|
5
|
+
<module fileurl="file://$PROJECT_DIR$/.idea/pelican_testing.iml" filepath="$PROJECT_DIR$/.idea/pelican_testing.iml" />
|
6
|
+
</modules>
|
7
|
+
</component>
|
8
|
+
</project>
|
@@ -0,0 +1,8 @@
|
|
1
|
+
<?xml version="1.0" encoding="UTF-8"?>
|
2
|
+
<module type="PYTHON_MODULE" version="4">
|
3
|
+
<component name="NewModuleRootManager">
|
4
|
+
<content url="file://$MODULE_DIR$" />
|
5
|
+
<orderEntry type="jdk" jdkName="PELICAN" jdkType="Python SDK" />
|
6
|
+
<orderEntry type="sourceFolder" forTests="false" />
|
7
|
+
</component>
|
8
|
+
</module>
|
@@ -0,0 +1,108 @@
|
|
1
|
+
# Configuration file for fluency task
|
2
|
+
# =======================================
|
3
|
+
input_file: "text" #or 'audio'
|
4
|
+
fluency_task: &fluency_flag true
|
5
|
+
#========================================
|
6
|
+
|
7
|
+
#general configurations; always adapt
|
8
|
+
PATH_TO_PROJECT_FOLDER: "/home/yvespauli/PycharmProjects/pelican_testing"
|
9
|
+
language: "german"
|
10
|
+
multiple_sessions: &session_flag false
|
11
|
+
|
12
|
+
corpus_names: #names of fluency tasks (e.g. "animals", "clothes")
|
13
|
+
- "animals"
|
14
|
+
- "clothes"
|
15
|
+
- "food"
|
16
|
+
|
17
|
+
#Specify linguistic metrics to extract
|
18
|
+
metric_to_extract: 'embeddings' #Possible options: 'embeddings', 'logits'
|
19
|
+
output_document_information: true
|
20
|
+
#====================================================================
|
21
|
+
|
22
|
+
#Optional configurations; Change with preference. However, default settings recommended
|
23
|
+
cleaning_options:
|
24
|
+
general_cleaning: true
|
25
|
+
#Options for fluency tasks
|
26
|
+
fluency_task: *fluency_flag
|
27
|
+
word_splitter: ';' #default split with ',' add different word_splitter if necessary
|
28
|
+
remove_hyphens: true
|
29
|
+
remove_duplicates: false
|
30
|
+
lowercase: false
|
31
|
+
#Optional cleaning
|
32
|
+
remove_brackets_and_bracketcontent: false #default 'false'
|
33
|
+
remove_timestamps: false #default 'false'
|
34
|
+
timestamp_pattern_example: null #e.g. "#00:00:23-00#"
|
35
|
+
remove_punctuation: false #Careful!: If set to true word_splitter might be removed
|
36
|
+
|
37
|
+
options_embeddings:
|
38
|
+
tokenization_method: "whitespace" #or "model"
|
39
|
+
model_name: "fastText" #e.g. "fastText", "xlm-roberta-base"
|
40
|
+
pytorch_based_model: false
|
41
|
+
method: "model_instance"
|
42
|
+
max_length: null
|
43
|
+
clean_embedding_tokens: true
|
44
|
+
|
45
|
+
semantic-similarity: true
|
46
|
+
distance-from-randomness: false
|
47
|
+
|
48
|
+
options_dis_from_randomness:
|
49
|
+
window_size: 8
|
50
|
+
min_len: null
|
51
|
+
bootstrap: 10000
|
52
|
+
shuffle_mode: 'include0_includeN'
|
53
|
+
parallel_computing: false #not yet set up
|
54
|
+
|
55
|
+
options_semantic-similarity:
|
56
|
+
window_sizes: #'all' or window size as integer
|
57
|
+
- 2
|
58
|
+
- 8
|
59
|
+
#==================================================================
|
60
|
+
|
61
|
+
#Extra configurations;
|
62
|
+
task_name: "fluency"
|
63
|
+
create_aggregation_of_results: true
|
64
|
+
|
65
|
+
pipeline_options:
|
66
|
+
quality_check: false
|
67
|
+
clean_text: true
|
68
|
+
tokenize_text: false
|
69
|
+
normalize_text: false
|
70
|
+
|
71
|
+
general_cleaning_options:
|
72
|
+
strip_whitespace: true
|
73
|
+
merge_multiple_whitespaces: true
|
74
|
+
remove_whitespace_before_punctuation: true
|
75
|
+
merge_newline_characters: true
|
76
|
+
remove_backslashes: true
|
77
|
+
|
78
|
+
has_multiple_sections: false
|
79
|
+
has_section_titles: false
|
80
|
+
section_identification: null
|
81
|
+
number_of_sections: 1
|
82
|
+
number_of_speakers: 1
|
83
|
+
discourse: false
|
84
|
+
|
85
|
+
document_information_output:
|
86
|
+
parameters:
|
87
|
+
- subject_ID
|
88
|
+
- fluency_word_count
|
89
|
+
- fluency_duplicate_count
|
90
|
+
|
91
|
+
#================================================================
|
92
|
+
|
93
|
+
#Detail configurations; Changes optional, mostly used for quality checking / error handling
|
94
|
+
recompute_everything: true
|
95
|
+
number_of_subjects: null
|
96
|
+
|
97
|
+
# Filename components configuration
|
98
|
+
filename_components:
|
99
|
+
subject: true # mandatory
|
100
|
+
session: *session_flag
|
101
|
+
task: true # mandatory
|
102
|
+
task_addition: false
|
103
|
+
corpus: true # typically true for fluency tasks (e.g., "animals", "clothes")
|
104
|
+
metric: true
|
105
|
+
additional_tags: []
|
106
|
+
|
107
|
+
|
108
|
+
|
@@ -0,0 +1 @@
|
|
1
|
+
Ameise; Affe; Bär; Chamäleon; Delphin; Dachs; Drossel; Elch; Esel; Eichhörnchen; Einhorn; Flunder; Giraffe; Gans; Ente; Hahn; Jaguar; Igel; Kanguru; Kamel; Lachs; Luchs
|
@@ -0,0 +1 @@
|
|
1
|
+
Socke; Wanderschuh; Sneaker; Jeans; Rock; Jupe; Strumpfhose; Lange Unterhose; Normale Unterhose; String; Tanga; Shirt; Unterhemd; Bluse; Jackett; Blazer; Pullover; Hoodie; Jacke; Winterjacke; Skihose; Hut; Cap; Leggings
|
pelican_nlp-0.1.1/examples/PyPI_testing_fluency/subjects/sub-01/fluency/sub-01_fluency_sem_food.txt
ADDED
@@ -0,0 +1 @@
|
|
1
|
+
Apfel; Birne; Mandarine; Clementine; Ananas; Granatapfel; Brot; Fisch; Fleisch; Milch; Müsli; Haferflocken; Nüsse; Spaghetti; Tomatensauce; Tomaten; Broccoli; Blumenkohl; Lauch; Zucchetti; Pepperoni; Zucchini; Tofu; Fleisch; Fleischersatz; Pizza; Mozzarella; Käse; Parmesan; Nutella; Butter
|
@@ -0,0 +1 @@
|
|
1
|
+
Hund; Katze; Maus; Bär; Krokodil; Pferd; Hase; Jaguar; Tiger; Löwe; Huhn; Känguru; Puma; Vogel; Eichhörnchen; Pferd; Eisbär; Biene; Fliege; Käfer; Spinne; Mücke; Krähe
|
@@ -0,0 +1 @@
|
|
1
|
+
Turnschuhe; Sandalen; Stiefel; Ballerinas; Flipflops; Hose; Leggings; Shorts; Bermuda; Unterhose; Shirt; Sweatshirt; Pulli; Halskragenpullover; Hemd; Bluse; Jacke; Blazer; Lederjacke; Jeansjacke; Mantel; Hut; Stuck; Ohrring; Mütze; Schal; Handschuhe; Body; BH; Unterleib; Strumpfhosen; Socken
|