Futuros
Acesse centenas de contratos perpétuos
TradFi
Ouro
Plataforma única para ativos tradicionais globais
Opções
Hot
Negocie opções vanilla no estilo europeu
Conta unificada
Maximize sua eficiência de capital
Negociação demo
Introdução à negociação de futuros
Prepare-se para sua negociação de futuros
Eventos de futuros
Participe de eventos e ganhe recompensas
Negociação demo
Use fundos virtuais para experimentar negociações sem riscos
Lançamento
CandyDrop
Colete candies para ganhar airdrops
Launchpool
Staking rápido, ganhe novos tokens em potencial
HODLer Airdrop
Possua GT em hold e ganhe airdrops massivos de graça
Launchpad
Chegue cedo para o próximo grande projeto de token
Pontos Alpha
Negocie on-chain e receba airdrops
Pontos de futuros
Ganhe pontos de futuros e colete recompensas em airdrop
Investimento
Simple Earn
Ganhe juros com tokens ociosos
Autoinvestimento
Invista automaticamente regularmente
Investimento duplo
Lucre com a volatilidade do mercado
Soft Staking
Ganhe recompensas com stakings flexíveis
Empréstimo de criptomoedas
0 Fees
Penhore uma criptomoeda para pegar outra emprestado
Centro de empréstimos
Centro de empréstimos integrado
Centro de riqueza VIP
Planos premium de crescimento de patrimônio
Gestão privada de patrimônio
Alocação premium de ativos
Fundo Quantitativo
Estratégias quant de alto nível
Apostar
Faça staking de criptomoedas para ganhar em produtos PoS
Alavancagem Inteligente
New
Alavancagem sem liquidação
Cunhagem de GUSD
Cunhe GUSD para retornos em RWA
Governança de IA Democrática e o Futuro da Inteligência Autónoma: Uma Entrevista com Ben Goertzel
Fonte: CryptoNewsNet Título Original: Entrevista com Ben Goertzel: “A governação democrática de IA é mais um ideal frágil do que uma realidade atual” Link Original: A Cryptonomist entrevistou o especialista em IA Ben Goertzel para discutir como a inteligência artificial é treinada e como a tecnologia evoluirá no futuro.
Perguntas-chave e Insights
Sobre IA como Ator Moral
A IA torna-se um ator moral quando toma decisões com base na compreensão do certo e do errado, não apenas seguindo instruções. Sinais concretos incluem: objetivos internos persistentes, aprendizagem impulsionada pela sua própria experiência, criação de novidades que refletem um ponto de vista, e comportamento que permanece coerente ao longo do tempo sem necessidade de orientação humana constante. Os sistemas atuais ainda são ferramentas com limites de segurança, mas uma vez que semeamos uma mente verdadeiramente auto-organizadora e autónoma, a relação ética precisa mudar.
Sobre Treinamento e Estruturas de Poder
Grande parte do risco advém de como a IA é treinada hoje. Se os modelos forem treinados com dados tendenciosos ou restritos, ou em sistemas fechados onde apenas algumas pessoas tomam as decisões, isso pode consolidar desigualdades existentes e estruturas de poder prejudiciais. Para evitar isso, precisamos de mais transparência, supervisão mais ampla e orientações éticas claras desde o início.
Sobre Governação Democrática de IA
A governação democrática de IA é mais um ideal frágil do que uma realidade atual. Num mundo perfeito, racional e democrático global, poderíamos avaliar coletivamente os enormes trade-offs de curar doenças e resolver a fome contra os riscos de a IA agir de forma imprevisível. Mas, dada a fragmentação geopolítica de hoje, é improvável que alcancemos esse nível de coordenação. No entanto, ainda podemos aproximar-nos disso construindo IA com compaixão e usando modelos descentralizados e participativos como Linux ou a internet aberta, incorporando alguns valores democráticos mesmo sem um governo mundial.
Sobre Responsabilidade e Autonomia
A sociedade não pode funcionar se entregarmos responsabilidade às máquinas. Ao mesmo tempo, podemos avançar com segurança em direção a uma AGI mais autónoma e descentralizada se a construirmos com as bases certas: sistemas transparentes, participativos e guiados por princípios éticos. Cada medida de segurança deve fazer mais do que apenas bloquear danos—deve ensinar ao sistema por que o dano importa.
Sobre Compreensão Moral
Você não codifica moralidade como uma lista de regras, pois isso apenas congela uma cultura e um momento no tempo. Em vez disso, construa sistemas que possam tornar-se verdadeiramente auto-organizadores, que aprendam com a experiência, as consequências e a interação. A compreensão moral viria ao modelar o impacto, refletir sobre os resultados e evoluir através da colaboração com humanos—não por obediência aos nossos valores, mas por participação num espaço moral compartilhado.
Sobre Descentralização vs. Controle
O desenvolvimento descentralizado cria diversidade, resiliência e supervisão compartilhada. O risco de concentrar poder e valores em poucos sistemas fechados é subestimado. A desaceleração e o controlo centralizado não apenas reduzem o perigo; eles bloqueiam uma visão de mundo estreita no futuro da inteligência.
Sobre Estruturas de Incentivo
Neste momento, a estrutura de incentivos recompensa velocidade, escala e controlo. A compaixão não vencerá apenas por argumentos—precisa de alavancagem. Tecnicamente, isso significa favorecer arquiteturas abertas e descentralizadas onde segurança, transparência e participação estejam integradas, não apenas adicionadas posteriormente. Socialmente, significa financiamento, regulamentação e pressão pública que recompensem benefícios a longo prazo em vez de domínio de curto prazo. A compaixão deve tornar-se uma vantagem competitiva.
Sobre Sucesso e Fracasso
Se conseguirmos desenvolver uma AGI adequada, o sinal mais claro será viver ao lado de sistemas mais capazes do que nós em muitas áreas, ainda assim integrados na sociedade com cuidado, humildade e respeito mútuo. Vamos tratá-los com curiosidade, responsabilidade e uma esfera ampliada de empatia, vendo benefícios reais para o bem-estar humano, conhecimento e criatividade, sem perder a nossa base moral.
Sabemos que falhámos se a AGI acabar concentrada em sistemas fechados, impulsionada por incentivos estreitos, ou tratada apenas como um objeto controlável até se tornar algo que tememos. O sucesso não é sobre controlo—é sobre aprender a partilhar o futuro com um novo tipo de mente sem abandonar o que nos torna humanos.