bERT-poEm-meTRE / config.json
Aeirya's picture
End of training
dc74afa verified
raw
history blame
3.19 kB
{
"_name_or_path": "model",
"activation": "gelu",
"architectures": [
"DistilBertForSequenceClassification"
],
"attention_dropout": 0.1,
"dim": 768,
"dropout": 0.1,
"finetuning_task": "text-classification",
"hidden_dim": 3072,
"id2label": {
"0": "--UU--U-U--",
"1": "-U-U--U-U",
"2": "-UU-U-U--UU-U-U-",
"3": "U-U--U-U--",
"4": "--U-UU---U-UU-",
"5": "U---U---U---",
"6": "UU--U-U-UU--",
"7": "-UU--UU--UU-",
"8": "-UU--U-U--",
"9": "U--U--U--U-",
"10": "-U---U---U--",
"11": "--UU--U-U-",
"12": "UU--U-U-UU-",
"13": "--U-U----U-U--",
"14": "U---U---U--",
"15": "U-U-UU--U-U-UU-",
"16": "--U-U-UU--U-U-",
"17": "--UU-U-U---",
"18": "U---U---U---U---",
"19": "-U---U---U---U-",
"20": "-UU--UU--UU--UU-",
"21": "UU-U-UU-U-UU-U-UU-U-",
"22": "-U-U----U-U---",
"23": "UU-U-U--UU-U-U--",
"24": "--U-U-UU---",
"25": "--U---U---U---U-",
"26": "--U---U---U-",
"27": "U--U-U-U--U-U-",
"28": "UU--UU--UU---",
"29": "U--U--U--U--",
"30": "UU--U-U-UU--U-U-",
"31": "--U-U-UU--U-U--",
"32": "--UU--UU--UU-",
"33": "-U---U---U-",
"34": "U--U--U-U-",
"35": "UU--UU--UU--UU-",
"36": "U--UU--UU--UU--",
"37": "-UU--U--UU--U-",
"38": "UU--UU--UU--UU--",
"39": "-UU--UU--U-",
"40": "-UU--U-U-UU--",
"41": "U-U-UU--U-U-UU--",
"42": "-U---U---U---U--",
"43": "--UU--UU--UU--",
"44": "--U----U--",
"45": "UU--UU--UU-",
"46": "--UU-----UU---",
"47": "--UU-U-U--"
},
"initializer_range": 0.02,
"label2id": {
"--U----U--": 44,
"--U---U---U-": 26,
"--U---U---U---U-": 25,
"--U-U----U-U--": 13,
"--U-U-UU---": 24,
"--U-U-UU--U-U-": 16,
"--U-U-UU--U-U--": 31,
"--U-UU---U-UU-": 4,
"--UU-----UU---": 46,
"--UU--U-U-": 11,
"--UU--U-U--": 0,
"--UU--UU--UU-": 32,
"--UU--UU--UU--": 43,
"--UU-U-U--": 47,
"--UU-U-U---": 17,
"-U---U---U-": 33,
"-U---U---U--": 10,
"-U---U---U---U-": 19,
"-U---U---U---U--": 42,
"-U-U----U-U---": 22,
"-U-U--U-U": 1,
"-UU--U--UU--U-": 37,
"-UU--U-U--": 8,
"-UU--U-U-UU--": 40,
"-UU--UU--U-": 39,
"-UU--UU--UU-": 7,
"-UU--UU--UU--UU-": 20,
"-UU-U-U--UU-U-U-": 2,
"U---U---U--": 14,
"U---U---U---": 5,
"U---U---U---U---": 18,
"U--U--U--U-": 9,
"U--U--U--U--": 29,
"U--U--U-U-": 34,
"U--U-U-U--U-U-": 27,
"U--UU--UU--UU--": 36,
"U-U--U-U--": 3,
"U-U-UU--U-U-UU-": 15,
"U-U-UU--U-U-UU--": 41,
"UU--U-U-UU-": 12,
"UU--U-U-UU--": 6,
"UU--U-U-UU--U-U-": 30,
"UU--UU--UU-": 45,
"UU--UU--UU---": 28,
"UU--UU--UU--UU-": 35,
"UU--UU--UU--UU--": 38,
"UU-U-U--UU-U-U--": 23,
"UU-U-UU-U-UU-U-UU-U-": 21
},
"max_position_embeddings": 512,
"model_type": "distilbert",
"n_heads": 12,
"n_layers": 6,
"output_past": true,
"pad_token_id": 0,
"problem_type": "single_label_classification",
"qa_dropout": 0.1,
"seq_classif_dropout": 0.2,
"sinusoidal_pos_embds": false,
"tie_weights_": true,
"torch_dtype": "float32",
"transformers_version": "4.35.2",
"vocab_size": 42000
}