Skip to content

Commit 86368b5

Browse files
fix-url (#1830)
1 parent 13e21e1 commit 86368b5

File tree

4 files changed

+4
-4
lines changed

4 files changed

+4
-4
lines changed

src/content/docs/en/pages/agreements/tos/29-august-2025/terms-of-service-29-august-2025.mdx

Lines changed: 1 addition & 1 deletion
Original file line numberDiff line numberDiff line change
@@ -14,7 +14,7 @@ All Azion products and services are offered as Edge Services and available throu
1414

1515
## 1\. Products and Services
1616

17-
**AI Inference:** designed to run artificial intelligence (AI) models on Azion’s globally distributed infrastructure in response to a request, without requiring the customer to provision or manage the infrastructure for execution. For specific models, as detailed in the documentation available at https://www.azion.com/en/documentation/products/ai/edge-ai/models/, it includes access to: (1) OpenAI-compatible API; (2) support for LoRA (Low-Rank Adaptation) via add-on; and (3) model invocation through Edge Functions. AZION MAY TERMINATE, WITHOUT PRIOR NOTICE, THE EXECUTION OF MODELS THAT ARE: (A) CONSUMING MORE THAN THE MAXIMUM DEFINED MEMORY; OR (B) RUNNING LONGER THAN THE MAXIMUM ALLOWED TIME. AZION MAY DEPROVISION MODELS THAT HAVE BEEN CREATED BUT NOT EXECUTED FOR MORE THAN THREE (3) DAYS. THE MODELS AVAILABLE IN AI INFERENCE MAY BE SUBJECT TO ADDITIONAL THIRD-PARTY LICENSE TERMS AND RESTRICTIONS, AND THE CUSTOMER IS RESPONSIBLE FOR THEIR USE, INCLUDING: (A) OBTAINING OR COMPLYING WITH ANY LICENSE FOR THIRD-PARTY MODELS; (B) ENSURING THE SECURITY OF THE MODEL IN USE; AND (C) THE OUTPUT GENERATED BY THE MODEL IN USE. OUTPUT GENERATED BY MODELS IN AI INFERENCE IS NOT VERIFIED BY AZION FOR ACCURACY AND DOES NOT REPRESENT AZION’S VIEWS. Except as otherwise provided in the Customer Agreement or any documents attached thereto, AI Inference will be billed based on consumption of: (a) Compute Time and (b) Requests.
17+
**AI Inference:** designed to run artificial intelligence (AI) models on Azion’s globally distributed infrastructure in response to a request, without requiring the customer to provision or manage the infrastructure for execution. For specific models, as detailed in the documentation available at https://www.azion.com/en/documentation/products/ai/ai-inference/models/, it includes access to: (1) OpenAI-compatible API; (2) support for LoRA (Low-Rank Adaptation) via add-on; and (3) model invocation through Edge Functions. AZION MAY TERMINATE, WITHOUT PRIOR NOTICE, THE EXECUTION OF MODELS THAT ARE: (A) CONSUMING MORE THAN THE MAXIMUM DEFINED MEMORY; OR (B) RUNNING LONGER THAN THE MAXIMUM ALLOWED TIME. AZION MAY DEPROVISION MODELS THAT HAVE BEEN CREATED BUT NOT EXECUTED FOR MORE THAN THREE (3) DAYS. THE MODELS AVAILABLE IN AI INFERENCE MAY BE SUBJECT TO ADDITIONAL THIRD-PARTY LICENSE TERMS AND RESTRICTIONS, AND THE CUSTOMER IS RESPONSIBLE FOR THEIR USE, INCLUDING: (A) OBTAINING OR COMPLYING WITH ANY LICENSE FOR THIRD-PARTY MODELS; (B) ENSURING THE SECURITY OF THE MODEL IN USE; AND (C) THE OUTPUT GENERATED BY THE MODEL IN USE. OUTPUT GENERATED BY MODELS IN AI INFERENCE IS NOT VERIFIED BY AZION FOR ACCURACY AND DOES NOT REPRESENT AZION’S VIEWS. Except as otherwise provided in the Customer Agreement or any documents attached thereto, AI Inference will be billed based on consumption of: (a) Compute Time and (b) Requests.
1818

1919
**Application Accelerator:** an Edge Application module designed to accelerate web applications and APIs. It includes access to protocol optimization features, advanced caching rules (Advanced Cache Key) which allows granular caching with minimum TTL of 0 seconds, segmentation and caching policies based on criteria such as name/value of Cookies and Query Strings, in addition to features such as Rules Engine, Bypass Cache, KeepAlive, Forward Cookies, POST Cache, among others. HTTP GET, HEAD, POST, PUT, PATCH, DELETE and OPTIONS methods available. Except as otherwise provided for in the Customer Agreement or any other documents attached thereto, Application Acelerator will be billed considering the Data Transferred according to the volumes consumed.
2020

src/content/docs/en/pages/agreements/tos/terms-of-service.mdx

Lines changed: 1 addition & 1 deletion
Original file line numberDiff line numberDiff line change
@@ -14,7 +14,7 @@ All Azion products and services are offered as Edge Services and available throu
1414

1515
## 1\. Products and Services
1616

17-
**AI Inference:** designed to run artificial intelligence (AI) models on Azion’s globally distributed infrastructure in response to a request, without requiring the customer to provision or manage the infrastructure for execution. For specific models, as detailed in the documentation available at https://www.azion.com/en/documentation/products/ai/edge-ai/models/, it includes access to: (1) OpenAI-compatible API; (2) support for LoRA (Low-Rank Adaptation) via add-on; and (3) model invocation through Edge Functions. AZION MAY TERMINATE, WITHOUT PRIOR NOTICE, THE EXECUTION OF MODELS THAT ARE: (A) CONSUMING MORE THAN THE MAXIMUM DEFINED MEMORY; OR (B) RUNNING LONGER THAN THE MAXIMUM ALLOWED TIME. AZION MAY DEPROVISION MODELS THAT HAVE BEEN CREATED BUT NOT EXECUTED FOR MORE THAN THREE (3) DAYS. THE MODELS AVAILABLE IN AI INFERENCE MAY BE SUBJECT TO ADDITIONAL THIRD-PARTY LICENSE TERMS AND RESTRICTIONS, AND THE CUSTOMER IS RESPONSIBLE FOR THEIR USE, INCLUDING: (A) OBTAINING OR COMPLYING WITH ANY LICENSE FOR THIRD-PARTY MODELS; (B) ENSURING THE SECURITY OF THE MODEL IN USE; AND (C) THE OUTPUT GENERATED BY THE MODEL IN USE. OUTPUT GENERATED BY MODELS IN AI INFERENCE IS NOT VERIFIED BY AZION FOR ACCURACY AND DOES NOT REPRESENT AZION’S VIEWS. Except as otherwise provided in the Customer Agreement or any documents attached thereto, AI Inference will be billed based on consumption of: (a) Compute Time and (b) Requests.
17+
**AI Inference:** designed to run artificial intelligence (AI) models on Azion’s globally distributed infrastructure in response to a request, without requiring the customer to provision or manage the infrastructure for execution. For specific models, as detailed in the documentation available at https://www.azion.com/en/documentation/products/ai/ai-inference/models/, it includes access to: (1) OpenAI-compatible API; (2) support for LoRA (Low-Rank Adaptation) via add-on; and (3) model invocation through Edge Functions. AZION MAY TERMINATE, WITHOUT PRIOR NOTICE, THE EXECUTION OF MODELS THAT ARE: (A) CONSUMING MORE THAN THE MAXIMUM DEFINED MEMORY; OR (B) RUNNING LONGER THAN THE MAXIMUM ALLOWED TIME. AZION MAY DEPROVISION MODELS THAT HAVE BEEN CREATED BUT NOT EXECUTED FOR MORE THAN THREE (3) DAYS. THE MODELS AVAILABLE IN AI INFERENCE MAY BE SUBJECT TO ADDITIONAL THIRD-PARTY LICENSE TERMS AND RESTRICTIONS, AND THE CUSTOMER IS RESPONSIBLE FOR THEIR USE, INCLUDING: (A) OBTAINING OR COMPLYING WITH ANY LICENSE FOR THIRD-PARTY MODELS; (B) ENSURING THE SECURITY OF THE MODEL IN USE; AND (C) THE OUTPUT GENERATED BY THE MODEL IN USE. OUTPUT GENERATED BY MODELS IN AI INFERENCE IS NOT VERIFIED BY AZION FOR ACCURACY AND DOES NOT REPRESENT AZION’S VIEWS. Except as otherwise provided in the Customer Agreement or any documents attached thereto, AI Inference will be billed based on consumption of: (a) Compute Time and (b) Requests.
1818

1919
**Application Accelerator:** an Edge Application module designed to accelerate web applications and APIs. It includes access to protocol optimization features, advanced caching rules (Advanced Cache Key) which allows granular caching with minimum TTL of 0 seconds, segmentation and caching policies based on criteria such as name/value of Cookies and Query Strings, in addition to features such as Rules Engine, Bypass Cache, KeepAlive, Forward Cookies, POST Cache, among others. HTTP GET, HEAD, POST, PUT, PATCH, DELETE and OPTIONS methods available. Except as otherwise provided for in the Customer Agreement or any other documents attached thereto, Application Acelerator will be billed considering the Data Transferred according to the volumes consumed.
2020

src/content/docs/pt-br/pages/contratos/tos/29-august-2025/terms-of-service-29-august-2025.mdx

Lines changed: 1 addition & 1 deletion
Original file line numberDiff line numberDiff line change
@@ -15,7 +15,7 @@ Todos os produtos e serviços da Azion são oferecidos como Edge Services e são
1515

1616
## 1\. Produtos e Serviços
1717

18-
**AI Inference:** projetado para executar modelos de inteligência artificial (AI) na infraestrutura global e distribuída da Azion, em resposta a uma requisição, sem que o cliente precise provisionar ou gerenciar a infraestrutura necessária para sua execução. Para modelos específicos, conforme documentação disponível em https://www.azion.com/pt-br/documentacao/produtos/ai/edge-ai/modelos/, inclui acesso a: (1) API compatível com OpenAI; (2) suporte a LoRA (Low-Rank Adaptation) via add-on; e (3) requisição do modelo realizada por Edge Functions. A AZION PODERÁ ENCERRAR, SEM AVISO PRÉVIO, A EXECUÇÃO DE MODELOS QUE ESTEJAM: (A) CONSUMINDO MAIS DO QUE A MEMÓRIA MÁXIMA DEFINIDA; OU (B) EXECUTANDO POR MAIS TEMPO QUE O MÁXIMO DEFINIDO. A AZION PODERÁ DESPROVISIONAR MODELOS CRIADOS E QUE NÃO TENHAM SIDO EXECUTADOS HÁ MAIS DE TRÊS (3) DIAS. OS MODELOS DISPONÍVEIS NO AI INFERENCE PODEM ESTAR SUJEITOS A TERMOS DE LICENCIAMENTO E RESTRIÇÕES ADICIONAIS DE TERCEIROS, E O CLIENTE É RESPONSÁVEL POR SEU USO, INCLUINDO: (A) O LICENCIAMENTO PARA USO DE MODELO DE TERCEIROS OU O RESPEITO AOS TERMOS DE USO DO MESMO; (B) A SEGURANÇA DO MODELO QUE UTILIZA; E (C) O RESULTADO GERADO PELO MODELO QUE UTILIZA. O RESULTADO GERADO POR MODELOS NO AI INFERENCE NÃO É VERIFICADO PELA AZION QUANTO À SUA PRECISÃO E NÃO REPRESENTA A OPINIÃO DA AZION. Salvo disposição em contrário no Contrato de Cliente ou quaisquer documentos anexos a ele, a cobrança do AI Inference se dará pelo (a) Compute Time e (b) Requests, de acordo com os volumes consumidos.
18+
**AI Inference:** projetado para executar modelos de inteligência artificial (AI) na infraestrutura global e distribuída da Azion, em resposta a uma requisição, sem que o cliente precise provisionar ou gerenciar a infraestrutura necessária para sua execução. Para modelos específicos, conforme documentação disponível em https://www.azion.com/pt-br/documentacao/produtos/ai/ai-inference/modelos/, inclui acesso a: (1) API compatível com OpenAI; (2) suporte a LoRA (Low-Rank Adaptation) via add-on; e (3) requisição do modelo realizada por Edge Functions. A AZION PODERÁ ENCERRAR, SEM AVISO PRÉVIO, A EXECUÇÃO DE MODELOS QUE ESTEJAM: (A) CONSUMINDO MAIS DO QUE A MEMÓRIA MÁXIMA DEFINIDA; OU (B) EXECUTANDO POR MAIS TEMPO QUE O MÁXIMO DEFINIDO. A AZION PODERÁ DESPROVISIONAR MODELOS CRIADOS E QUE NÃO TENHAM SIDO EXECUTADOS HÁ MAIS DE TRÊS (3) DIAS. OS MODELOS DISPONÍVEIS NO AI INFERENCE PODEM ESTAR SUJEITOS A TERMOS DE LICENCIAMENTO E RESTRIÇÕES ADICIONAIS DE TERCEIROS, E O CLIENTE É RESPONSÁVEL POR SEU USO, INCLUINDO: (A) O LICENCIAMENTO PARA USO DE MODELO DE TERCEIROS OU O RESPEITO AOS TERMOS DE USO DO MESMO; (B) A SEGURANÇA DO MODELO QUE UTILIZA; E (C) O RESULTADO GERADO PELO MODELO QUE UTILIZA. O RESULTADO GERADO POR MODELOS NO AI INFERENCE NÃO É VERIFICADO PELA AZION QUANTO À SUA PRECISÃO E NÃO REPRESENTA A OPINIÃO DA AZION. Salvo disposição em contrário no Contrato de Cliente ou quaisquer documentos anexos a ele, a cobrança do AI Inference se dará pelo (a) Compute Time e (b) Requests, de acordo com os volumes consumidos.
1919

2020
**Application Acelerator:** módulo do Edge Application projetado para acelerar aplicações web e APIs. Inclui acesso a funcionalidades de otimização de protocolos, regras avançadas de cache (Advanced Cache Key) que permite o cache granular com TTL mínimo de 0 segundos, segmentação e políticas de cache com base em critérios como name/value de Cookies e Query Strings, além de funcionalidades como Rules Engine condicional, Bypass Cache, KeepAlive, Forward Cookies, Cache de POST, dentre outras. Disponibiliza os métodos HTTP GET, HEAD, POST, PUT, PATCH, DELETE e OPTIONS. Salvo disposição em contrário no Contrato de Cliente ou quaisquer documentos anexos a ele, a cobrança do Application Acelerator se dará pelo Data Transferred de acordo com os volumes consumidos.
2121

src/content/docs/pt-br/pages/contratos/tos/index.mdx

Lines changed: 1 addition & 1 deletion
Original file line numberDiff line numberDiff line change
@@ -15,7 +15,7 @@ Todos os produtos e serviços da Azion são oferecidos como Edge Services e são
1515

1616
## 1\. Produtos e Serviços
1717

18-
**AI Inference:** projetado para executar modelos de inteligência artificial (AI) na infraestrutura global e distribuída da Azion, em resposta a uma requisição, sem que o cliente precise provisionar ou gerenciar a infraestrutura necessária para sua execução. Para modelos específicos, conforme documentação disponível em https://www.azion.com/pt-br/documentacao/produtos/ai/edge-ai/modelos/, inclui acesso a: (1) API compatível com OpenAI; (2) suporte a LoRA (Low-Rank Adaptation) via add-on; e (3) requisição do modelo realizada por Edge Functions. A AZION PODERÁ ENCERRAR, SEM AVISO PRÉVIO, A EXECUÇÃO DE MODELOS QUE ESTEJAM: (A) CONSUMINDO MAIS DO QUE A MEMÓRIA MÁXIMA DEFINIDA; OU (B) EXECUTANDO POR MAIS TEMPO QUE O MÁXIMO DEFINIDO. A AZION PODERÁ DESPROVISIONAR MODELOS CRIADOS E QUE NÃO TENHAM SIDO EXECUTADOS HÁ MAIS DE TRÊS (3) DIAS. OS MODELOS DISPONÍVEIS NO AI INFERENCE PODEM ESTAR SUJEITOS A TERMOS DE LICENCIAMENTO E RESTRIÇÕES ADICIONAIS DE TERCEIROS, E O CLIENTE É RESPONSÁVEL POR SEU USO, INCLUINDO: (A) O LICENCIAMENTO PARA USO DE MODELO DE TERCEIROS OU O RESPEITO AOS TERMOS DE USO DO MESMO; (B) A SEGURANÇA DO MODELO QUE UTILIZA; E (C) O RESULTADO GERADO PELO MODELO QUE UTILIZA. O RESULTADO GERADO POR MODELOS NO AI INFERENCE NÃO É VERIFICADO PELA AZION QUANTO À SUA PRECISÃO E NÃO REPRESENTA A OPINIÃO DA AZION. Salvo disposição em contrário no Contrato de Cliente ou quaisquer documentos anexos a ele, a cobrança do AI Inference se dará pelo (a) Compute Time e (b) Requests, de acordo com os volumes consumidos.
18+
**AI Inference:** projetado para executar modelos de inteligência artificial (AI) na infraestrutura global e distribuída da Azion, em resposta a uma requisição, sem que o cliente precise provisionar ou gerenciar a infraestrutura necessária para sua execução. Para modelos específicos, conforme documentação disponível em https://www.azion.com/pt-br/documentacao/produtos/ai/ai-inference/modelos/, inclui acesso a: (1) API compatível com OpenAI; (2) suporte a LoRA (Low-Rank Adaptation) via add-on; e (3) requisição do modelo realizada por Edge Functions. A AZION PODERÁ ENCERRAR, SEM AVISO PRÉVIO, A EXECUÇÃO DE MODELOS QUE ESTEJAM: (A) CONSUMINDO MAIS DO QUE A MEMÓRIA MÁXIMA DEFINIDA; OU (B) EXECUTANDO POR MAIS TEMPO QUE O MÁXIMO DEFINIDO. A AZION PODERÁ DESPROVISIONAR MODELOS CRIADOS E QUE NÃO TENHAM SIDO EXECUTADOS HÁ MAIS DE TRÊS (3) DIAS. OS MODELOS DISPONÍVEIS NO AI INFERENCE PODEM ESTAR SUJEITOS A TERMOS DE LICENCIAMENTO E RESTRIÇÕES ADICIONAIS DE TERCEIROS, E O CLIENTE É RESPONSÁVEL POR SEU USO, INCLUINDO: (A) O LICENCIAMENTO PARA USO DE MODELO DE TERCEIROS OU O RESPEITO AOS TERMOS DE USO DO MESMO; (B) A SEGURANÇA DO MODELO QUE UTILIZA; E (C) O RESULTADO GERADO PELO MODELO QUE UTILIZA. O RESULTADO GERADO POR MODELOS NO AI INFERENCE NÃO É VERIFICADO PELA AZION QUANTO À SUA PRECISÃO E NÃO REPRESENTA A OPINIÃO DA AZION. Salvo disposição em contrário no Contrato de Cliente ou quaisquer documentos anexos a ele, a cobrança do AI Inference se dará pelo (a) Compute Time e (b) Requests, de acordo com os volumes consumidos.
1919

2020
**Application Acelerator:** módulo do Edge Application projetado para acelerar aplicações web e APIs. Inclui acesso a funcionalidades de otimização de protocolos, regras avançadas de cache (Advanced Cache Key) que permite o cache granular com TTL mínimo de 0 segundos, segmentação e políticas de cache com base em critérios como name/value de Cookies e Query Strings, além de funcionalidades como Rules Engine condicional, Bypass Cache, KeepAlive, Forward Cookies, Cache de POST, dentre outras. Disponibiliza os métodos HTTP GET, HEAD, POST, PUT, PATCH, DELETE e OPTIONS. Salvo disposição em contrário no Contrato de Cliente ou quaisquer documentos anexos a ele, a cobrança do Application Acelerator se dará pelo Data Transferred de acordo com os volumes consumidos.
2121

0 commit comments

Comments
 (0)