Futuros
Acesse centenas de contratos perpétuos
TradFi
Ouro
Plataforma única para ativos tradicionais globais
Opções
Hot
Negocie opções vanilla no estilo europeu
Conta unificada
Maximize sua eficiência de capital
Negociação demo
Introdução à negociação de futuros
Prepare-se para sua negociação de futuros
Eventos de futuros
Participe de eventos e ganhe recompensas
Negociação demo
Use fundos virtuais para experimentar negociações sem riscos
Lançamento
CandyDrop
Colete candies para ganhar airdrops
Launchpool
Staking rápido, ganhe novos tokens em potencial
HODLer Airdrop
Possua GT em hold e ganhe airdrops massivos de graça
Launchpad
Chegue cedo para o próximo grande projeto de token
Pontos Alpha
Negocie on-chain e receba airdrops
Pontos de futuros
Ganhe pontos de futuros e colete recompensas em airdrop
Investimento
Simple Earn
Ganhe juros com tokens ociosos
Autoinvestimento
Invista automaticamente regularmente
Investimento duplo
Lucre com a volatilidade do mercado
Soft Staking
Ganhe recompensas com stakings flexíveis
Empréstimo de criptomoedas
0 Fees
Penhore uma criptomoeda para pegar outra emprestado
Centro de empréstimos
Centro de empréstimos integrado
Centro de riqueza VIP
Planos premium de crescimento de patrimônio
Gestão privada de patrimônio
Alocação premium de ativos
Fundo Quantitativo
Estratégias quant de alto nível
Apostar
Faça staking de criptomoedas para ganhar em produtos PoS
Alavancagem Inteligente
New
Alavancagem sem liquidação
Cunhagem de GUSD
Cunhe GUSD para retornos em RWA
OpenAI apresenta Model Spec: como evolui a abordagem responsável do comportamento da IA
Recentemente, a OpenAI revelou ao público o seu documento interno Model Spec — uma descrição detalhada de como a empresa pretende gerir o comportamento dos seus modelos de IA. Este passo reflete o esforço da OpenAI em ampliar a discussão sobre os princípios que devem fundamentar o funcionamento dos algoritmos modernos, incluindo questões complexas relacionadas com a geração de diferentes tipos de conteúdo.
Arquitetura de regras: sobre o que se baseia o novo sistema
O Model Spec assenta em três pilares principais que devem determinar o comportamento de todos os sistemas de IA da empresa. O primeiro princípio centra-se na utilidade — os modelos devem fornecer respostas construtivas aos desenvolvedores e utilizadores finais, de acordo com as tarefas atribuídas. O segundo princípio foca no bem-estar da humanidade, exigindo que os algoritmos considerem tanto os potenciais benefícios como os riscos das suas ações. O terceiro princípio reforça o compromisso da OpenAI com as normas sociais e a legislação vigente.
A empresa também definiu um conjunto de restrições específicas para os desenvolvedores que utilizam tecnologias de IA. Entre estas estão a necessidade de respeitar a hierarquia de comandos, cumprir a legislação local, evitar a criação de desinformação, respeitar os direitos de autor, proteger os dados pessoais dos utilizadores e evitar a geração de conteúdo explícito por padrão.
Equilíbrio entre liberdade e responsabilidade
Uma das partes mais discutidas do Model Spec refere-se à gestão de conteúdo NSFW (não seguro para o trabalho). Segundo o documento, a OpenAI está a investigar formas de fornecer de forma responsável a possibilidade de gerar esse tipo de conteúdo em contextos com restrições de idade — tanto através da API como da interface ChatGPT. Isto significa que a empresa vê potencial na possibilidade de utilizadores e desenvolvedores ajustarem o “grau de picante” dos seus assistentes de IA, consoante a aplicação específica.
Esta abordagem implica que a OpenAI não proíbe categoricamente certos tipos de conteúdo, mas insiste numa sua distribuição responsável e controlada. Para isso, são necessárias transparência, verificação de idade e regras claras de uso.
Como devem comportar-se os IAs por padrão
O Model Spec descreve um conjunto de comportamentos recomendados para os assistentes de IA na sua configuração padrão. Os modelos devem agir com boas intenções, fazer perguntas esclarecedoras quando necessário, respeitar os limites estabelecidos, manter uma postura objetiva, rejeitar categoricamente manifestações de ódio e evitar tentar convencer as pessoas das suas próprias crenças. Além disso, os sistemas devem expressar honestamente a sua incerteza quando não estiverem completamente seguros da correção da resposta.
Joan Jiang, gerente de produto da OpenAI, explicou o objetivo do documento: a empresa pretende obter recomendações da comunidade científica, políticos e do público sobre como os sistemas de IA devem funcionar. Segundo ela, o Model Spec ajuda a distinguir de forma mais clara entre comportamentos intencionais e acidentais dos algoritmos, o que é especialmente importante na implementação de novas versões.
Da teoria à prática: o que vai mudar
É importante notar que o Model Spec não afetará os produtos já lançados — o ChatGPT, GPT-4 e DALL-E 3 continuarão a operar de acordo com as políticas de uso existentes. O documento foi concebido como um sistema vivo, em constante evolução, que será atualizado regularmente com base no feedback recebido.
A OpenAI convida ativamente todas as partes interessadas a participar na discussão — desde políticos e organizações beneficentes até especialistas independentes em várias áreas. A empresa está aberta a receber recomendações sobre as alterações necessárias na documentação, embora ainda não divulgue detalhes sobre os critérios de decisão ou quem será responsável por definir as direções do desenvolvimento do Model Spec.
Perspectivas e questões sem resposta
O surgimento do Model Spec indica que a OpenAI reconhece a necessidade de maior transparência na gestão dos seus sistemas de IA. No entanto, permanecem questões em aberto: que sugestões da comunidade serão consideradas, como serão resolvidos os conflitos entre diferentes pontos de vista e quando será lançada a segunda versão do documento. Atualmente, não há informações disponíveis sobre esses detalhes importantes.
Anteriormente, a OpenAI já tentou fortalecer a confiança dos utilizadores ao lançar ferramentas para identificar conteúdos criados por inteligência artificial. O Model Spec representa a próxima etapa nesta direção — uma tentativa de estabelecer padrões universais para o desenvolvimento responsável das tecnologias de IA.