sgugger commited on
Commit
a23be20
1 Parent(s): 38cd5b7

Update with commit f9a0008d2d3082a665f711b24f5314e4a8205fab

Browse files

See: https://github.com/huggingface/transformers/commit/f9a0008d2d3082a665f711b24f5314e4a8205fab

Files changed (2) hide show
  1. frameworks.json +1 -0
  2. pipeline_tags.json +2 -0
frameworks.json CHANGED
@@ -100,6 +100,7 @@
100
  {"model_type":"unispeech","pytorch":true,"tensorflow":false,"flax":false,"processor":"AutoProcessor"}
101
  {"model_type":"unispeech-sat","pytorch":true,"tensorflow":false,"flax":false,"processor":"AutoProcessor"}
102
  {"model_type":"van","pytorch":true,"tensorflow":false,"flax":false,"processor":"AutoFeatureExtractor"}
 
103
  {"model_type":"vilt","pytorch":true,"tensorflow":false,"flax":false,"processor":"AutoProcessor"}
104
  {"model_type":"vision-encoder-decoder","pytorch":true,"tensorflow":true,"flax":true,"processor":"AutoTokenizer"}
105
  {"model_type":"vision-text-dual-encoder","pytorch":true,"tensorflow":false,"flax":true,"processor":"AutoProcessor"}
 
100
  {"model_type":"unispeech","pytorch":true,"tensorflow":false,"flax":false,"processor":"AutoProcessor"}
101
  {"model_type":"unispeech-sat","pytorch":true,"tensorflow":false,"flax":false,"processor":"AutoProcessor"}
102
  {"model_type":"van","pytorch":true,"tensorflow":false,"flax":false,"processor":"AutoFeatureExtractor"}
103
+ {"model_type":"videomae","pytorch":true,"tensorflow":false,"flax":false,"processor":"AutoFeatureExtractor"}
104
  {"model_type":"vilt","pytorch":true,"tensorflow":false,"flax":false,"processor":"AutoProcessor"}
105
  {"model_type":"vision-encoder-decoder","pytorch":true,"tensorflow":true,"flax":true,"processor":"AutoTokenizer"}
106
  {"model_type":"vision-text-dual-encoder","pytorch":true,"tensorflow":false,"flax":true,"processor":"AutoProcessor"}
pipeline_tags.json CHANGED
@@ -685,6 +685,8 @@
685
  {"model_class":"ViTMAEForPreTraining","pipeline_tag":"pretraining","auto_class":"AutoModelForPreTraining"}
686
  {"model_class":"ViTMAEModel","pipeline_tag":"feature-extraction","auto_class":"AutoModel"}
687
  {"model_class":"ViTModel","pipeline_tag":"feature-extraction","auto_class":"AutoModel"}
 
 
688
  {"model_class":"ViltModel","pipeline_tag":"feature-extraction","auto_class":"AutoModel"}
689
  {"model_class":"VisionTextDualEncoderModel","pipeline_tag":"feature-extraction","auto_class":"AutoModel"}
690
  {"model_class":"VisualBertForPreTraining","pipeline_tag":"pretraining","auto_class":"AutoModelForPreTraining"}
 
685
  {"model_class":"ViTMAEForPreTraining","pipeline_tag":"pretraining","auto_class":"AutoModelForPreTraining"}
686
  {"model_class":"ViTMAEModel","pipeline_tag":"feature-extraction","auto_class":"AutoModel"}
687
  {"model_class":"ViTModel","pipeline_tag":"feature-extraction","auto_class":"AutoModel"}
688
+ {"model_class":"VideoMAEForPreTraining","pipeline_tag":"pretraining","auto_class":"AutoModelForPreTraining"}
689
+ {"model_class":"VideoMAEModel","pipeline_tag":"feature-extraction","auto_class":"AutoModel"}
690
  {"model_class":"ViltModel","pipeline_tag":"feature-extraction","auto_class":"AutoModel"}
691
  {"model_class":"VisionTextDualEncoderModel","pipeline_tag":"feature-extraction","auto_class":"AutoModel"}
692
  {"model_class":"VisualBertForPreTraining","pipeline_tag":"pretraining","auto_class":"AutoModelForPreTraining"}