Update with commit ac227093e41cecb07c7e0f2fc9a504850907bd06
Browse filesSee: https://github.com/huggingface/transformers/commit/ac227093e41cecb07c7e0f2fc9a504850907bd06
- frameworks.json +1 -0
- pipeline_tags.json +1 -0
frameworks.json
CHANGED
@@ -69,6 +69,7 @@
|
|
69 |
{"model_type":"trocr","pytorch":true,"tensorflow":false,"flax":false,"processor":"AutoProcessor"}
|
70 |
{"model_type":"unispeech","pytorch":true,"tensorflow":false,"flax":false,"processor":"AutoTokenizer"}
|
71 |
{"model_type":"unispeech-sat","pytorch":true,"tensorflow":false,"flax":false,"processor":"AutoTokenizer"}
|
|
|
72 |
{"model_type":"vision-encoder-decoder","pytorch":true,"tensorflow":true,"flax":true,"processor":"AutoTokenizer"}
|
73 |
{"model_type":"vision-text-dual-encoder","pytorch":true,"tensorflow":false,"flax":true,"processor":"AutoProcessor"}
|
74 |
{"model_type":"visual_bert","pytorch":true,"tensorflow":false,"flax":false,"processor":"AutoTokenizer"}
|
|
|
69 |
{"model_type":"trocr","pytorch":true,"tensorflow":false,"flax":false,"processor":"AutoProcessor"}
|
70 |
{"model_type":"unispeech","pytorch":true,"tensorflow":false,"flax":false,"processor":"AutoTokenizer"}
|
71 |
{"model_type":"unispeech-sat","pytorch":true,"tensorflow":false,"flax":false,"processor":"AutoTokenizer"}
|
72 |
+
{"model_type":"vilt","pytorch":true,"tensorflow":false,"flax":false,"processor":"AutoTokenizer"}
|
73 |
{"model_type":"vision-encoder-decoder","pytorch":true,"tensorflow":true,"flax":true,"processor":"AutoTokenizer"}
|
74 |
{"model_type":"vision-text-dual-encoder","pytorch":true,"tensorflow":false,"flax":true,"processor":"AutoProcessor"}
|
75 |
{"model_type":"visual_bert","pytorch":true,"tensorflow":false,"flax":false,"processor":"AutoTokenizer"}
|
pipeline_tags.json
CHANGED
@@ -553,6 +553,7 @@
|
|
553 |
{"model_class":"ViTMAEForPreTraining","pipeline_tag":"pretraining","auto_class":"AutoModelForPreTraining"}
|
554 |
{"model_class":"ViTMAEModel","pipeline_tag":"feature-extraction","auto_class":"AutoModel"}
|
555 |
{"model_class":"ViTModel","pipeline_tag":"feature-extraction","auto_class":"AutoModel"}
|
|
|
556 |
{"model_class":"VisionTextDualEncoderModel","pipeline_tag":"feature-extraction","auto_class":"AutoModel"}
|
557 |
{"model_class":"VisualBertForPreTraining","pipeline_tag":"pretraining","auto_class":"AutoModelForPreTraining"}
|
558 |
{"model_class":"VisualBertModel","pipeline_tag":"feature-extraction","auto_class":"AutoModel"}
|
|
|
553 |
{"model_class":"ViTMAEForPreTraining","pipeline_tag":"pretraining","auto_class":"AutoModelForPreTraining"}
|
554 |
{"model_class":"ViTMAEModel","pipeline_tag":"feature-extraction","auto_class":"AutoModel"}
|
555 |
{"model_class":"ViTModel","pipeline_tag":"feature-extraction","auto_class":"AutoModel"}
|
556 |
+
{"model_class":"ViltModel","pipeline_tag":"feature-extraction","auto_class":"AutoModel"}
|
557 |
{"model_class":"VisionTextDualEncoderModel","pipeline_tag":"feature-extraction","auto_class":"AutoModel"}
|
558 |
{"model_class":"VisualBertForPreTraining","pipeline_tag":"pretraining","auto_class":"AutoModelForPreTraining"}
|
559 |
{"model_class":"VisualBertModel","pipeline_tag":"feature-extraction","auto_class":"AutoModel"}
|