bERT-poEm-meTRE / config.json
Aeirya's picture
End of training
2661bee verified
raw
history blame
3.19 kB
{
"_name_or_path": "model",
"activation": "gelu",
"architectures": [
"DistilBertForSequenceClassification"
],
"attention_dropout": 0.1,
"dim": 768,
"dropout": 0.1,
"finetuning_task": "text-classification",
"hidden_dim": 3072,
"id2label": {
"0": "--U----U--",
"1": "--U---U---U-",
"2": "--U---U---U---U-",
"3": "--U-U----U-U--",
"4": "--U-U-UU---",
"5": "--U-U-UU--U-U-",
"6": "--U-U-UU--U-U--",
"7": "--U-UU---U-UU-",
"8": "--UU-----UU---",
"9": "--UU--U-U-",
"10": "--UU--U-U--",
"11": "--UU--UU--UU-",
"12": "--UU--UU--UU--",
"13": "--UU-U-U--",
"14": "--UU-U-U---",
"15": "-U---U---U-",
"16": "-U---U---U--",
"17": "-U---U---U---U-",
"18": "-U---U---U---U--",
"19": "-U-U----U-U---",
"20": "-U-U--U-U",
"21": "-UU--U--UU--U-",
"22": "-UU--U-U--",
"23": "-UU--U-U-UU--",
"24": "-UU--UU--U-",
"25": "-UU--UU--UU-",
"26": "-UU--UU--UU--UU-",
"27": "-UU-U-U--UU-U-U-",
"28": "U---U---U--",
"29": "U---U---U---",
"30": "U---U---U---U---",
"31": "U--U--U--U-",
"32": "U--U--U--U--",
"33": "U--U--U-U-",
"34": "U--U-U-U--U-U-",
"35": "U--UU--UU--UU--",
"36": "U-U--U-U--",
"37": "U-U-UU--U-U-UU-",
"38": "U-U-UU--U-U-UU--",
"39": "UU--U-U-UU-",
"40": "UU--U-U-UU--",
"41": "UU--U-U-UU--U-U-",
"42": "UU--UU--UU-",
"43": "UU--UU--UU---",
"44": "UU--UU--UU--UU-",
"45": "UU--UU--UU--UU--",
"46": "UU-U-U--UU-U-U--",
"47": "UU-U-UU-U-UU-U-UU-U-"
},
"initializer_range": 0.02,
"label2id": {
"--U----U--": 0,
"--U---U---U-": 1,
"--U---U---U---U-": 2,
"--U-U----U-U--": 3,
"--U-U-UU---": 4,
"--U-U-UU--U-U-": 5,
"--U-U-UU--U-U--": 6,
"--U-UU---U-UU-": 7,
"--UU-----UU---": 8,
"--UU--U-U-": 9,
"--UU--U-U--": 10,
"--UU--UU--UU-": 11,
"--UU--UU--UU--": 12,
"--UU-U-U--": 13,
"--UU-U-U---": 14,
"-U---U---U-": 15,
"-U---U---U--": 16,
"-U---U---U---U-": 17,
"-U---U---U---U--": 18,
"-U-U----U-U---": 19,
"-U-U--U-U": 20,
"-UU--U--UU--U-": 21,
"-UU--U-U--": 22,
"-UU--U-U-UU--": 23,
"-UU--UU--U-": 24,
"-UU--UU--UU-": 25,
"-UU--UU--UU--UU-": 26,
"-UU-U-U--UU-U-U-": 27,
"U---U---U--": 28,
"U---U---U---": 29,
"U---U---U---U---": 30,
"U--U--U--U-": 31,
"U--U--U--U--": 32,
"U--U--U-U-": 33,
"U--U-U-U--U-U-": 34,
"U--UU--UU--UU--": 35,
"U-U--U-U--": 36,
"U-U-UU--U-U-UU-": 37,
"U-U-UU--U-U-UU--": 38,
"UU--U-U-UU-": 39,
"UU--U-U-UU--": 40,
"UU--U-U-UU--U-U-": 41,
"UU--UU--UU-": 42,
"UU--UU--UU---": 43,
"UU--UU--UU--UU-": 44,
"UU--UU--UU--UU--": 45,
"UU-U-U--UU-U-U--": 46,
"UU-U-UU-U-UU-U-UU-U-": 47
},
"max_position_embeddings": 512,
"model_type": "distilbert",
"n_heads": 12,
"n_layers": 6,
"output_past": true,
"pad_token_id": 0,
"problem_type": "single_label_classification",
"qa_dropout": 0.1,
"seq_classif_dropout": 0.2,
"sinusoidal_pos_embds": false,
"tie_weights_": true,
"torch_dtype": "float32",
"transformers_version": "4.35.2",
"vocab_size": 42000
}