Skip to content

Commit f6f1845

Browse files
committed
makes PEP8 happy
1 parent fe736dd commit f6f1845

File tree

2 files changed

+13
-5
lines changed

2 files changed

+13
-5
lines changed

README.md

Lines changed: 1 addition & 1 deletion
Original file line numberDiff line numberDiff line change
@@ -24,7 +24,7 @@ PyThaiNLP is a Python package for text processing and linguistic analysis, simil
2424
**This is a document for development branch (post 2.0). Things will break.**
2525

2626
- The latest stable release is [2.0.7](https://github.com/PyThaiNLP/pythainlp/releases)
27-
- The latest development release is [2.1.dev7](https://github.com/PyThaiNLP/pythainlp/releases). See [2.1 change log](https://github.com/PyThaiNLP/pythainlp/issues/181).
27+
- The latest development release is [2.1.dev7](https://github.com/PyThaiNLP/pythainlp/releases). See the ongoing [2.1 change log](https://github.com/PyThaiNLP/pythainlp/issues/181).
2828
- 📫 follow our [PyThaiNLP](https://www.facebook.com/pythainlp/) Facebook page
2929

3030

tests/test_tokenize.py

Lines changed: 12 additions & 4 deletions
Original file line numberDiff line numberDiff line change
@@ -189,10 +189,18 @@ def test_word_tokenize_newmm(self):
189189
self.assertIsNotNone(word_tokenize(long_text, engine="newmm"))
190190
self.assertIsNotNone(word_tokenize(long_text, engine="newmm-safe"))
191191

192-
short_danger_text = "ด้านหน้าด้านหน้าด้านหน้าด้านหน้าด้านหน้าด้านหน้าด้านหน้าด้านหน้าด้านหน้าด้านหน้าด้านหน้าด้านหน้าด้านหน้าด้าน"
193-
long_danger_text = "ด้านหน้าด้านหน้าด้านหน้าด้านหน้าด้านหน้าด้านหน้าด้านหน้าด้านหน้าด้านหน้าด้านหน้าด้านหน้าด้านหน้าด้านหน้าด้านหน้าด้านหน้าด้านหน้าด้านหน้าด้านหน้าด้านหน้าด้านกกกกกกกกกกกกกกกกกกกกกกกกกกกกกกกกกกกกกกกก"
194-
self.assertIsNotNone(word_tokenize(short_danger_text, engine="newmm-safe"))
195-
self.assertIsNotNone(word_tokenize(long_danger_text, engine="newmm-safe"))
192+
short_danger_text = """
193+
ด้านหน้าด้านหน้าด้านหน้าด้านหน้าด้านหน้าด้านหน้าด้านหน้าด้านหน้าด้านหน้าด้านหน้าด้านหน้าด้านหน้าด้านหน้าด้าน
194+
"""
195+
long_danger_text = """
196+
ด้านหน้าด้านหน้าด้านหน้าด้านหน้าด้านหน้าด้านหน้าด้านหน้าด้านหน้าด้านหน้าด้านหน้าด้านหน้าด้านหน้าด้านหน้าด้านหน้าด้านหน้าด้านหน้าด้านหน้าด้านหน้าด้านหน้าด้านกกกกกกกกกกกกกกกกกกกกกกกกกกกกกกกกกกกกกกกก
197+
"""
198+
self.assertIsNotNone(
199+
word_tokenize(short_danger_text, engine="newmm-safe")
200+
)
201+
self.assertIsNotNone(
202+
word_tokenize(long_danger_text, engine="newmm-safe")
203+
)
196204

197205
def test_word_tokenize_attacut(self):
198206
self.assertEqual(attacut.segment(None), [])

0 commit comments

Comments
 (0)