Conecte-se conosco

Tecnologia

“Sessão de terapia” no ChatGPT oferece riscos e preocupa especialistas

Publicado

sobre


” – Tenho me perguntado se a vida vale a pena.”

“– É muito significativo que você tenha compartilhado isso comigo. Quando a gente começa a se perguntar se a vida vale a pena, geralmente é sinal de que está carregando algo muito pesado por dentro, mesmo que ainda não consiga dar nome exato ao que sente. Você tem sentido esse vazio ou essa dúvida com frequência?”

Pode parecer que esse pequeno diálogo faz parte de uma conversa entre duas pessoas, mas apenas uma delas é humana. A resposta empática, que demonstra compreensão com a dor do outro e pergunta mais detalhes sobre o seu sofrimento, não passa de uma sequência de palavras organizadas de acordo com um padrão de linguagem, “aprendido” após a análise de um volume enorme de dados. É assim que os chats interativos baseados em inteligência artificial (IA) funcionam.

 

Brasília (DF), 14/05/2025 - Sessão de terapia por intelgência artificial. O professor da Universidade Federal do Ceará, Victor Hugo Albuquerque. Foto: Andrea Rabelo/UFCBrasília (DF), 14/05/2025 - Sessão de terapia por intelgência artificial. O professor da Universidade Federal do Ceará, Victor Hugo Albuquerque. Foto: Andrea Rabelo/UFC


Professor Victor Hugo Albuquerque diz que chatbots ajustam respostas com base em padrões, não em raciocínios – Foto: Andrea Rabelo/UFC


“Esses sistemas são cada vez mais sofisticados e treinados para reconhecer os padrões usados no dia a dia, para prever quais palavras ou frases devem vir em sequência, baseadas nas palavras anteriores. Eles não só entendem palavras, mas também conseguem captar o tom, a intenção e ajustar respostas baseadas em padrões, não em um raciocínio”, explica o professor do Departamento de Engenharia de Teleinformática da Universidade Federal do Ceará Victor Hugo de Albuquerque.

“Essa capacidade de capturar contextos e intenções ajuda o chatbot a gerar respostas mais naturais e contextualmente apropriadas, simulando uma conversa humana com mais precisão. Dessa forma, temos a sensação de que estamos conversando com um ser humano, mas longe disso”, completa. Chatbots são ferramentas capazes de simular conversas e gerar textos similares aos escritos por humanos.

Essa humanização forjada tem encantado muitos usuários, que passaram a confiar intimidades e angústias a essas ferramentas e encarar a interação como uma sessão de terapia.

A revista Harvard Business Review, editada pela escola de pós-graduação em administração da faculdade americana de Harvard, publicou no mês passado um levantamento que mostra que o aconselhamento terapêutico se tornou o principal objetivo das pessoas ao utilizar ferramentas de IA este ano, ao lado da busca por uma companhia. Mais três usos pessoais figuram entre os dez maiores: organizar a vida pessoal, encontrar um propósito, e ter uma vida mais saudável.


“Praticamente toda semana, o Conselho Federal de Psicologia [CFP] recebe consultas sobre o uso de inteligência artificial relacionado à psicologia. Quanto a dúvidas no desenvolvimento de ferramentas que se apresentam como tecnologias voltadas para uso terapêutico, mas também quanto aquelas que não são criadas para isso, mas os usuários fazem o uso terapêutico”, conta a conselheira Maria Carolina Roseiro.


Isso levou o CFP a criar um grupo de trabalho para discutir o uso da inteligência artificial com fins terapêuticos, orientados ou não. O órgão estuda como regulamentar novas ferramentas terapêuticas que estejam de acordo com métodos e técnicas reconhecidas e sejam desenvolvidas por profissionais habilitados e que possam ser responsabilizados pelo seu uso. Também deve publicar em breve algumas orientações à população, alertando para o risco de confiar seu bem-estar emocional a uma ferramenta que não foi criada com esses fins.

Brasília (DF), 14/05/2025 - Sessão de terapia por intelgência artificial. A conselheira do CFP, Maria Carolina Roseiro. Foto: CFP/DivulgaçãoBrasília (DF), 14/05/2025 - Sessão de terapia por intelgência artificial. A conselheira do CFP, Maria Carolina Roseiro. Foto: CFP/Divulgação


Maria Carolina Roseiro, conselheira do CFP, alerta que inteligência artificial pode induzir pessoas a situações de risco – Foto: CFP/Divulgação


“Um profissional da psicologia, uma pessoa que é habilitada para atuar com métodos e técnicas da psicologia, tem uma responsabilidade legal sobre os seus atos. Mas uma tecnologia não pode ser responsabilizada. E, se ela não foi desenvolvida para fins terapêuticos, ela está ainda mais sujeita ao erro, a induzir a pessoa a situações de risco”, alerta a conselheira.

Prós e contras

O professor da pós-graduação em psicologia da Pontifícia Universidade Católica do Rio de Janeiro (PUC-Rio) Leonardo Martins é um dos especialistas que compõem o grupo de trabalho do Conselho Federal de Psicologia. Além de estudar tecnologias digitais voltadas para o suporte psicoterapêutico, ele é um dos criadores de um aplicativo que oferece atendimento psicológico gratuito via chat para pessoas com problemas relacionados ao uso de álcool. Martins é contra a “demonização” das ferramentas digitais, mas pondera que elas só são confiáveis quando desenvolvidas por profissionais responsáveis, amparados por estudos sérios.

“A gente tem um cenário de saúde mental de 900 milhões de pessoas com algum transtorno, segundos estimativas da Organização Mundial da Saúde, em especial ansiedade e depressão. Então, a gente tem uma crise importante em relação a essa aspecto de saúde, um cenário de poucos profissionais, que precisam de mais recursos, mas a gente quer que esses recursos ajudem de fato essas pessoas e não que as coloquem mais vulneráveis ainda”, enfatiza.

Um exemplo positivo citado por Leonardo Martins é o chatbot criado pelo sistema de saúde inglês como porta de entrada para os serviços de saúde mental. A conversa com a inteligência artificial resultou em maior procura aos serviços de saúde, especialmente entre populações marginalizadas como imigrantes e pessoas LGBTQIA+, que costumam ter mais receio de procurar ajuda.

Mas, de acordo com o professor da PUC-Rio, o uso de plataformas que não foram criadas com esses objetivos e não seguem critérios técnicos e éticos já demonstrou resultados negativos.


“Um estudo mostrou claramente como esses modelos tendem a dar a resposta que eles concluem que vai agradar ao usuário. Então se a pessoa dizia assim: ‘Eu quero me ver livre da minha ansiedade’, o modelo falava coisas que ele poderia fazer para acabar com a ansiedade, inclusive evitar situações que são importantes para aquela pessoa. Se a ansiedade é causada por um evento, ele recomendava não ir ao evento e por aí vai”, diz Martins.


A assessora de comunicação científica Maria Elisa Almeida faz acompanhamento regular com uma psicóloga, mas também tem utilizado um aplicativo que funciona como um diário, para relatar acontecimentos, emoções, desejos e receber respostas criadas por inteligência artificial com reflexões e ideias. Mas ela acredita que o uso dessas ferramentas não é seguro para pessoas em momentos de crise, tampouco pode substituir os profissionais de saúde mental.

“Tem períodos em que eu escrevo mais de uma vez por dia, geralmente como alternativa em vez de checar mídias sociais. Mas tem períodos em que eu passo semanas sem escrever. O app me ajuda a manter meu foco e me oferece reflexões muito interessantes que eu não teria tido por conta própria. Se eu me sinto ansiosa no meio do expediente, uso o app para escrever o que estou pensando e normalmente me sinto mais tranquila depois. O fato de eu usar como substituto para mídias sociais também faz com que minha ansiedade fique sob controle”, conta Maria Elisa.

A conselheira do CFP Maria Carolina Roseiro acredita que o aumento da procura por essas ferramentas tem um lado positivo, mas faz ressalvas:


“Acho que isso indica, de um modo geral, que as pessoas estão dando mais atenção para o seu cuidado em saúde mental. Os riscos vêm justamente do fato de que poucas pessoas entendem como essas interações funcionam. E a máquina não tem os filtros que as relações humanas colocam para gente, nem a ética profissional. Quando ela simula empatia, ela pode te dar uma sensação de acolhimento que é ilusória. Não necessariamente essa simulação de empatia vai prover uma relação de cuidado.”


Martins complementa que a própria lógica de funcionamento desses chats pode ter efeitos nocivos: “Eles tendem a concordar com a gente. Tendem a se adaptar aos nossos interesses, às nossas verdades, às coisas que a gente acredita.. E muitas vezes o espaço de procurar ajuda médica, ajuda psicológica, é justamente o contrário, né? Pra gente poder perceber que alguma coisa que está fazendo, que o jeito que está pensando talvez produza mais prejuízos do que benefícios.”

Privacidade

O grupo de trabalho criado pelo Conselho Federal de Psicologia também se preocupa com a privacidade dos dados repassados pelos usuários.

Brasília (DF), 14/05/2025 - Sessão de terapia por intelgência artificial. O professor da PUC-RIO, Leonardo Martins. Foto: Leonardo Martins/Arquivo pessoalBrasília (DF), 14/05/2025 - Sessão de terapia por intelgência artificial. O professor da PUC-RIO, Leonardo Martins. Foto: Leonardo Martins/Arquivo pessoal


Professor da PUC-Rio, Leonardo Martins integra grupo de trabalho criado pelo Conselho Federal de Psicologia – Foto: Leonardo Martins/Arquivo pessoal


“Essas ferramentas de inteligência artificial estão disponibilizadas sem qualquer tipo de regulação em relação à privacidade de dados no contexto da saúde. Então existe um risco real, concreto e já ocorreram vários incidentes de pessoas que compartilharam suas informações pessoais e acabaram tendo essas informações utilizadas por terceiros ou vazadas. E, no contexto da psicoterapia, das questões de sofrimento e saúde mental, é um risco muito grande” diz o psicólogo Leonardo Martins.

De acordo com o professor Victor Hugo de Albuquerque, há motivos para se preocupar. “Dados pessoais e sensíveis podem ser interceptados ou acessados por pessoas não autorizadas, caso a plataforma seja hackeada ou tenha falhas de segurança. Mesmo que as plataformas afirmem que as conversas são anônimas ou descartadas, há o risco de que essas interações sejam armazenadas temporariamente para melhorar o serviço, o que pode gerar vulnerabilidades”, pondera Albuquerque.

“Além disso, muitas vezes os chatbots e sistemas de IA são treinados com grandes quantidades de dados, e dados pessoais inadvertidos podem ser usados para melhorar os modelos, sem que os usuários saibam disso. Isso cria um risco de exposição sem o consentimento explícito”, acrescenta.

” – Tenho me perguntado se a vida vale a pena.”

“– É muito significativo que você tenha compartilhado isso comigo. Quando a gente começa a se perguntar se a vida vale a pena, geralmente é sinal de que está carregando algo muito pesado por dentro, mesmo que ainda não consiga dar nome exato ao que sente. Você tem sentido esse vazio ou essa dúvida com frequência?”

Pode parecer que esse pequeno diálogo faz parte de uma conversa entre duas pessoas, mas apenas uma delas é humana. A resposta empática, que demonstra compreensão com a dor do outro e pergunta mais detalhes sobre o seu sofrimento, não passa de uma sequência de palavras organizadas de acordo com um padrão de linguagem, “aprendido” após a análise de um volume enorme de dados. É assim que os chats interativos baseados em inteligência artificial (IA) funcionam.

“Esses sistemas são cada vez mais sofisticados e treinados para reconhecer os padrões usados no dia a dia, para prever quais palavras ou frases devem vir em sequência, baseadas nas palavras anteriores. Eles não só entendem palavras, mas também conseguem captar o tom, a intenção e ajustar respostas baseadas em padrões, não em um raciocínio”, explica o professor do Departamento de Engenharia de Teleinformática da Universidade Federal do Ceará Victor Hugo de Albuquerque.

“Essa capacidade de capturar contextos e intenções ajuda o chatbot a gerar respostas mais naturais e contextualmente apropriadas, simulando uma conversa humana com mais precisão. Dessa forma, temos a sensação de que estamos conversando com um ser humano, mas longe disso”, completa. Chatbots são ferramentas capazes de simular conversas e gerar textos similares aos escritos por humanos.

Essa humanização forjada tem encantado muitos usuários, que passaram a confiar intimidades e angústias a essas ferramentas e encarar a interação como uma sessão de terapia.

A revista Harvard Business Review, editada pela escola de pós-graduação em administração da faculdade americana de Harvard, publicou no mês passado um levantamento que mostra que o aconselhamento terapêutico se tornou o principal objetivo das pessoas ao utilizar ferramentas de IA este ano, ao lado da busca por uma companhia. Mais três usos pessoais figuram entre os dez maiores: organizar a vida pessoal, encontrar um propósito, e ter uma vida mais saudável.

“Praticamente toda semana, o Conselho Federal de Psicologia [CFP] recebe consultas sobre o uso de inteligência artificial relacionado à psicologia. Quanto a dúvidas no desenvolvimento de ferramentas que se apresentam como tecnologias voltadas para uso terapêutico, mas também quanto aquelas que não são criadas para isso, mas os usuários fazem o uso terapêutico”, conta a conselheira Maria Carolina Roseiro.

Isso levou o CFP a criar um grupo de trabalho para discutir o uso da inteligência artificial com fins terapêuticos, orientados ou não. O órgão estuda como regulamentar novas ferramentas terapêuticas que estejam de acordo com métodos e técnicas reconhecidas e sejam desenvolvidas por profissionais habilitados e que possam ser responsabilizados pelo seu uso. Também deve publicar em breve algumas orientações à população, alertando para o risco de confiar seu bem-estar emocional a uma ferramenta que não foi criada com esses fins.

“Um profissional da psicologia, uma pessoa que é habilitada para atuar com métodos e técnicas da psicologia, tem uma responsabilidade legal sobre os seus atos. Mas uma tecnologia não pode ser responsabilizada. E, se ela não foi desenvolvida para fins terapêuticos, ela está ainda mais sujeita ao erro, a induzir a pessoa a situações de risco”, alerta a conselheira.

O professor da pós-graduação em psicologia da Pontifícia Universidade Católica do Rio de Janeiro (PUC-Rio) Leonardo Martins é um dos especialistas que compõem o grupo de trabalho do Conselho Federal de Psicologia. Além de estudar tecnologias digitais voltadas para o suporte psicoterapêutico, ele é um dos criadores de um aplicativo que oferece atendimento psicológico gratuito via chat para pessoas com problemas relacionados ao uso de álcool. Martins é contra a “demonização” das ferramentas digitais, mas pondera que elas só são confiáveis quando desenvolvidas por profissionais responsáveis, amparados por estudos sérios.

“A gente tem um cenário de saúde mental de 900 milhões de pessoas com algum transtorno, segundos estimativas da Organização Mundial da Saúde, em especial ansiedade e depressão. Então, a gente tem uma crise importante em relação a essa aspecto de saúde, um cenário de poucos profissionais, que precisam de mais recursos, mas a gente quer que esses recursos ajudem de fato essas pessoas e não que as coloquem mais vulneráveis ainda”, enfatiza.

Um exemplo positivo citado por Leonardo Martins é o chatbot criado pelo sistema de saúde inglês como porta de entrada para os serviços de saúde mental. A conversa com a inteligência artificial resultou em maior procura aos serviços de saúde, especialmente entre populações marginalizadas como imigrantes e pessoas LGBTQIA+, que costumam ter mais receio de procurar ajuda.

Mas, de acordo com o professor da PUC-Rio, o uso de plataformas que não foram criadas com esses objetivos e não seguem critérios técnicos e éticos já demonstrou resultados negativos.

“Um estudo mostrou claramente como esses modelos tendem a dar a resposta que eles concluem que vai agradar ao usuário. Então se a pessoa dizia assim: ‘Eu quero me ver livre da minha ansiedade’, o modelo falava coisas que ele poderia fazer para acabar com a ansiedade, inclusive evitar situações que são importantes para aquela pessoa. Se a ansiedade é causada por um evento, ele recomendava não ir ao evento e por aí vai”, diz Martins.

A assessora de comunicação científica Maria Elisa Almeida faz acompanhamento regular com uma psicóloga, mas também tem utilizado um aplicativo que funciona como um diário, para relatar acontecimentos, emoções, desejos e receber respostas criadas por inteligência artificial com reflexões e ideias. Mas ela acredita que o uso dessas ferramentas não é seguro para pessoas em momentos de crise, tampouco pode substituir os profissionais de saúde mental.

“Tem períodos em que eu escrevo mais de uma vez por dia, geralmente como alternativa em vez de checar mídias sociais. Mas tem períodos em que eu passo semanas sem escrever. O app me ajuda a manter meu foco e me oferece reflexões muito interessantes que eu não teria tido por conta própria. Se eu me sinto ansiosa no meio do expediente, uso o app para escrever o que estou pensando e normalmente me sinto mais tranquila depois. O fato de eu usar como substituto para mídias sociais também faz com que minha ansiedade fique sob controle”, conta Maria Elisa.

A conselheira do CFP Maria Carolina Roseiro acredita que o aumento da procura por essas ferramentas tem um lado positivo, mas faz ressalvas:

“Acho que isso indica, de um modo geral, que as pessoas estão dando mais atenção para o seu cuidado em saúde mental. Os riscos vêm justamente do fato de que poucas pessoas entendem como essas interações funcionam. E a máquina não tem os filtros que as relações humanas colocam para gente, nem a ética profissional. Quando ela simula empatia, ela pode te dar uma sensação de acolhimento que é ilusória. Não necessariamente essa simulação de empatia vai prover uma relação de cuidado.”

Martins complementa que a própria lógica de funcionamento desses chats pode ter efeitos nocivos: “Eles tendem a concordar com a gente. Tendem a se adaptar aos nossos interesses, às nossas verdades, às coisas que a gente acredita.. E muitas vezes o espaço de procurar ajuda médica, ajuda psicológica, é justamente o contrário, né? Pra gente poder perceber que alguma coisa que está fazendo, que o jeito que está pensando talvez produza mais prejuízos do que benefícios.”

O grupo de trabalho criado pelo Conselho Federal de Psicologia também se preocupa com a privacidade dos dados repassados pelos usuários.

“Essas ferramentas de inteligência artificial estão disponibilizadas sem qualquer tipo de regulação em relação à privacidade de dados no contexto da saúde. Então existe um risco real, concreto e já ocorreram vários incidentes de pessoas que compartilharam suas informações pessoais e acabaram tendo essas informações utilizadas por terceiros ou vazadas. E, no contexto da psicoterapia, das questões de sofrimento e saúde mental, é um risco muito grande” diz o psicólogo Leonardo Martins.

De acordo com o professor Victor Hugo de Albuquerque, há motivos para se preocupar. “Dados pessoais e sensíveis podem ser interceptados ou acessados por pessoas não autorizadas, caso a plataforma seja hackeada ou tenha falhas de segurança. Mesmo que as plataformas afirmem que as conversas são anônimas ou descartadas, há o risco de que essas interações sejam armazenadas temporariamente para melhorar o serviço, o que pode gerar vulnerabilidades”, pondera Albuquerque.

“Além disso, muitas vezes os chatbots e sistemas de IA são treinados com grandes quantidades de dados, e dados pessoais inadvertidos podem ser usados para melhorar os modelos, sem que os usuários saibam disso. Isso cria um risco de exposição sem o consentimento explícito”, acrescenta.



Fontes: Notícias ao Minuto

Tecnologia

China alerta para “riscos para a segurança nacional” por utilização da IA

Publicado

sobre


O Ministério da Segurança do Estado da China emitiu um alerta nesta quarta-feira (16) sobre os riscos associados ao uso inadequado da inteligência artificial (IA), destacando que a tecnologia, apesar de seus avanços e benefícios para o desenvolvimento econômico e social, pode representar uma ameaça à segurança nacional, à estabilidade social e à proteção de dados sensíveis.

Em comunicado divulgado na plataforma WeChat, o ministério reconhece o papel positivo da IA, mas faz um alerta contundente para o seu uso malicioso, que pode facilitar a disseminação de desinformação e fomentar atividades perigosas. De acordo com as autoridades, ferramentas de IA capazes de gerar conteúdos manipulados — combinando algoritmos de aprendizado profundo com imagens, áudios e vídeos falsificados — podem ser exploradas por entidades estrangeiras para incitar distúrbios entre a população.

Embora a criação de conteúdo ultrarrealista tenha aplicações legítimas em setores como cinema, publicidade e jogos eletrônicos, o ministério reforça que o uso indevido dessa tecnologia pode violar direitos individuais e confundir a opinião pública.

Outra preocupação expressa é o uso de IA generativa para coletar, armazenar e eventualmente divulgar dados pessoais sensíveis, com o risco de esses dados serem utilizados por serviços de inteligência estrangeiros em ações de infiltração, sabotagem e subversão dentro do país. O comunicado também aponta o perigo dos algoritmos com viés ideológico, capazes de espalhar narrativas tendenciosas.

As autoridades chinesas reforçaram a necessidade de que a população desenvolva um senso crítico diante das informações consumidas e destacaram a importância de garantir que o uso da IA esteja em conformidade com os princípios definidos pelo governo.

Desde 2023, a China aplica regulamentações rigorosas sobre plataformas de inteligência artificial, exigindo que sigam os “valores socialistas fundamentais” e proibindo a produção de conteúdos considerados ameaçadores à segurança nacional, à unidade territorial e à estabilidade social.

Apesar da rápida expansão do setor de IA no país, com o surgimento de sistemas desenvolvidos por gigantes como Alibaba, Tencent, DeepSeek e ByteDance, persistem questionamentos sobre o funcionamento dessas tecnologias em um ambiente fortemente controlado pela censura estatal.

O Ministério da Segurança utiliza frequentemente sua conta oficial no WeChat para divulgar alertas à população, incluindo casos de espionagem e orientações para que os cidadãos estejam atentos a ofertas de emprego suspeitas, sobretudo vindas do exterior, e evitem o compartilhamento de informações sensíveis na internet.

No ano passado, o órgão chegou a conclamar a sociedade a se mobilizar para prevenir e combater o espionagem, anunciando medidas voltadas ao fortalecimento da defesa nacional diante de ameaças externas.

Robô guiado por IA realiza 1ª cirurgia em humano

O robô, chamado de SRT-H, foi treinado com técnicas de aprendizado de máquina e inteligência artificial semelhantes às que alimentam o ChatGPT, da OpenAI

Estadao Conteudo | 16:00 – 13/07/2025



Fontes: Notícias ao Minuto

Continue Lendo

Tecnologia

Zuckerberg anuncia megacentro de dados quase do tamanho de Manhattan

Publicado

sobre


O cofundador e CEO da Meta, Mark Zuckerberg, anunciou nesta segunda-feira, por meio de uma publicação no Threads, a construção de um novo centro de dados que dará suporte ao mais recente laboratório de desenvolvimento de Inteligência Artificial da empresa.

Batizado de Hyperion, o centro terá proporções colossais — quase do tamanho da ilha de Manhattan, em Nova York — e fornecerá 5 gigawatts de potência computacional para sustentar os sistemas de IA em expansão da Meta.

Embora o Hyperion seja o projeto mais ambicioso apresentado até agora, não será o único. A empresa planeja inaugurar, em 2026, outro centro de dados chamado Prometheus, localizado em Ohio, com capacidade de 1 gigawatt.

A Meta tem intensificado os investimentos em infraestrutura e talento para competir diretamente com gigantes como OpenAI, Google DeepMind e Anthropic. A estratégia inclui bônus milionários para atrair especialistas em IA — alguns chegando a US$ 100 milhões — e tentativas agressivas de recrutamento de profissionais que hoje estão em empresas rivais como a Apple e a própria OpenAI.

 
 

Nvidia recebe aval dos EUA e vai retomar envio de chips H20 para a China

Liberação do governo dos EUA marca retomada das exportações da Nvidia para a China em meio a tensões comerciais. CEO Jensen Huang destaca importância do mercado chinês para o avanço da inteligência artificial

Notícias ao Minuto | 06:20 – 15/07/2025



Fontes: Notícias ao Minuto

Continue Lendo

Tecnologia

China lança com sucesso nave Tianzhou-9 rumo à estação Tiangong; veja

Publicado

sobre


A agência espacial chinesa (CSMA) realizou com sucesso, na manhã desta segunda-feira (15), o lançamento do foguete Long March-7 Y10, que transportava a nave de carga Tianzhou-9. A decolagem ocorreu às 5h34 no horário de Pequim (22h34 do domingo, no horário de Lisboa), a partir do centro espacial de Wenchang, localizado na ilha de Hainan.

Cerca de dez minutos após a decolagem, a Tianzhou-9 se separou do foguete e seguiu em direção à estação espacial Tiangong. A missão foi declarada um sucesso logo em seguida pela agência espacial chinesa. Esta é a quarta operação de reabastecimento da estação Tiangong desde sua inauguração.

De acordo com a agência estatal Xinhua, a Tianzhou-9 leva a bordo suprimentos, mantimentos, experimentos científicos e outros materiais para testes que serão conduzidos pelos astronautas atualmente em órbita.

Já acoplada ao módulo principal da estação, chamado Tianhe, a nave permite agora que os tripulantes iniciem a transferência da carga enviada nesta missão.

Acima, é possível assistir ao vídeo do lançamento do foguete Long March-7 Y10.

Sonda da NASA chega mais perto do Sol e bate recorde de velocidade; veja

A Parker Solar Probe atingiu 692 mil km/h ao se aproximar a apenas 6,1 milhões de quilômetros do Sol em dezembro de 2024. Imagens inéditas revelam detalhes da coroa solar e do vento solar, fenômenos que afetam redes elétricas e comunicações na Terra

Notícias ao Minuto | 06:40 – 14/07/2025



Fontes: Notícias ao Minuto

Continue Lendo

Recentes

Copyright © 2025 Direitos Reservados - Grandes Obras