words stringlengths 1 4 | postags stringclasses 13
values |
|---|---|
たち | 接尾辞 |
さ | 動詞 |
ら | 接尾辞 |
なり | 動詞 |
ごと | 接尾辞 |
ぶり | 接尾辞 |
その | 連体詞 |
この | 連体詞 |
ある | 動詞 |
こと | 名詞 |
もの | 名詞 |
ため | 名詞 |
とき | 名詞 |
うち | 名詞 |
まま | 名詞 |
そう | 副詞 |
それぞれ | 名詞 |
ほか | 名詞 |
より | 助詞 |
あれ | 動詞 |
なら | 助動詞 |
つ | 接尾辞 |
き | 動詞 |
え | 動詞 |
み | 動詞 |
ち | 名詞 |
す | 動詞 |
ぬ | 助動詞 |
う | 感動詞 |
る | 助動詞 |
ま | 名詞 |
あ | 感動詞 |
こ | 動詞 |
あっ | 動詞 |
とも | 名詞 |
かつて | 副詞 |
おり | 動詞 |
ほとんど | 名詞 |
よう | 形状詞 |
ところ | 名詞 |
できる | 動詞 |
ほぼ | 副詞 |
の | 助詞 |
て | 助詞 |
に | 助詞 |
を | 助詞 |
が | 助詞 |
は | 助詞 |
と | 助詞 |
た | 助動詞 |
し | 動詞 |
で | 助詞 |
も | 助詞 |
ます | 助動詞 |
空白 | |
で | 助動詞 |
です | 助動詞 |
な | 助動詞 |
に | 助動詞 |
いる | 動詞 |
する | 動詞 |
か | 助詞 |
い | 動詞 |
お | 接頭辞 |
から | 助詞 |
まし | 助動詞 |
れ | 助動詞 |
ない | 助動詞 |
さ | 動詞 |
いう | 動詞 |
ある | 動詞 |
だ | 助動詞 |
あり | 動詞 |
や | 助詞 |
ませ | 助動詞 |
ん | 助動詞 |
なっ | 動詞 |
ご | 接頭辞 |
ば | 助詞 |
など | 助詞 |
でき | 動詞 |
なり | 動詞 |
なる | 動詞 |
まで | 助詞 |
ね | 助詞 |
それ | 代名詞 |
たい | 助動詞 |
ん | 助詞 |
これ | 代名詞 |
れる | 助動詞 |
だけ | 助詞 |
でしょう | 助動詞 |
たら | 助動詞 |
たり | 助詞 |
られ | 助動詞 |
よ | 助詞 |
へ | 助詞 |
また | 接続詞 |
せ | 助動詞 |
でし | 助動詞 |
Japanese Stopwords for nagisa
This dataset is the Japanese stopwords list built into nagisa (v0.2.12+). It is published here on Hugging Face for easy access and reproducibility.
Overview
Dataset Description
This dataset contains 147 frequently used Japanese words extracted from large-scale corpora. Each word is annotated with its part-of-speech (POS) tag according to nagisa's tokenization rules.
Since nagisa v0.2.12, this stopwords list is included by default and can be accessed directly via nagisa.stopwords. The list was expanded from 100 to 147 words, with additional POS categories (代名詞, 接続詞) to improve coverage.
The stopwords are constructed from the following sources:
- CC-100 dataset - Monolingual datasets from Common Crawl
- Wikipedia - Japanese Wikipedia dumps
Usage
Using with nagisa (Recommended)
Since nagisa v0.2.12, stopwords are built-in. No additional installation is required.
import nagisa
# Tokenize text
text = "日本語のストップワードを簡単に利用できます。"
tokens = nagisa.tagging(text)
print(tokens.words)
# ['日本', '語', 'の', 'ストップ', 'ワード', 'を', '簡単', 'に', '利用', 'でき', 'ます', '。']
# Filter stopwords
words = [word for word in tokens.words if word not in nagisa.stopwords]
print(words)
# ['日本', '語', 'ストップ', 'ワード', '簡単', '利用', '。']
Using with Hugging Face Datasets
pip install datasets
This dataset requires datasets >= 2.10.0.
from datasets import load_dataset
dataset = load_dataset("taishi-i/nagisa_stopwords")
# Get stopwords
words = dataset["nagisa_stopwords"]["words"]
# Get the part-of-speech tags
postags = dataset["nagisa_stopwords"]["postags"]
Example: Filtering Stopwords from Text
import nagisa
from datasets import load_dataset
# Load stopwords
dataset = load_dataset("taishi-i/nagisa_stopwords")
stopwords = set(dataset["nagisa_stopwords"]["words"])
# Tokenize and filter
text = "東京で美味しいラーメンを食べました"
tokens = nagisa.tagging(text)
print(tokens.words)
# ['東京', 'で', '美味しい', 'ラーメン', 'を', '食べ', 'まし', 'た']
filtered_words = [word for word in tokens.words if word not in stopwords]
print(filtered_words)
# ['東京', '美味しい', 'ラーメン', '食べ']
Data Fields
| Field | Type | Description |
|---|---|---|
words |
string | Japanese word or character |
postags |
string | Part-of-speech tag in Japanese |
Part-of-Speech Tags
The dataset includes the following POS tags:
| POS Tag | English | Count |
|---|---|---|
| 助動詞 | Auxiliary Verb | 37 |
| 助詞 | Particle | 35 |
| 動詞 | Verb | 24 |
| 名詞 | Noun | 13 |
| 代名詞 | Pronoun | 13 |
| 接続詞 | Conjunction | 9 |
| 接尾辞 | Suffix | 5 |
| 副詞 | Adverb | 3 |
| 接頭辞 | Prefix | 2 |
| 連体詞 | Adnominal | 2 |
| 感動詞 | Interjection | 2 |
| 形状詞 | Adjectival Noun | 1 |
| 空白 | Whitespace | 1 |
Sample Data
| words | postags |
|---|---|
| の | 助詞 |
| て | 助詞 |
| に | 助詞 |
| を | 助詞 |
| が | 助詞 |
| は | 助詞 |
| と | 助詞 |
| た | 助動詞 |
| し | 動詞 |
| で | 助詞 |
Use Cases
- Text preprocessing: Remove common words before text analysis
- Feature extraction: Reduce noise in bag-of-words or TF-IDF representations
- Search optimization: Filter out stopwords from search queries
- Text classification: Improve model performance by removing non-informative words
Related Resources
- nagisa - Japanese tokenizer based on RNN
- CC-100 - Monolingual datasets from Common Crawl
- Wikipedia Dumps - Wikipedia database dumps
Citation
If you use this dataset, please cite:
@misc{nagisa_stopwords,
author = {Taishi Ikeda},
title = {Japanese Stopwords for nagisa},
year = {2023},
publisher = {Hugging Face},
url = {https://huggingface.co/datasets/taishi-i/nagisa_stopwords}
}
- Downloads last month
- 44