Tecnologia
“Sessão de terapia” no ChatGPT oferece riscos e preocupa especialistas
” – Tenho me perguntado se a vida vale a pena.”

“– É muito significativo que você tenha compartilhado isso comigo. Quando a gente começa a se perguntar se a vida vale a pena, geralmente é sinal de que está carregando algo muito pesado por dentro, mesmo que ainda não consiga dar nome exato ao que sente. Você tem sentido esse vazio ou essa dúvida com frequência?”
Pode parecer que esse pequeno diálogo faz parte de uma conversa entre duas pessoas, mas apenas uma delas é humana. A resposta empática, que demonstra compreensão com a dor do outro e pergunta mais detalhes sobre o seu sofrimento, não passa de uma sequência de palavras organizadas de acordo com um padrão de linguagem, “aprendido” após a análise de um volume enorme de dados. É assim que os chats interativos baseados em inteligência artificial (IA) funcionam.
“Esses sistemas são cada vez mais sofisticados e treinados para reconhecer os padrões usados no dia a dia, para prever quais palavras ou frases devem vir em sequência, baseadas nas palavras anteriores. Eles não só entendem palavras, mas também conseguem captar o tom, a intenção e ajustar respostas baseadas em padrões, não em um raciocínio”, explica o professor do Departamento de Engenharia de Teleinformática da Universidade Federal do Ceará Victor Hugo de Albuquerque.
“Essa capacidade de capturar contextos e intenções ajuda o chatbot a gerar respostas mais naturais e contextualmente apropriadas, simulando uma conversa humana com mais precisão. Dessa forma, temos a sensação de que estamos conversando com um ser humano, mas longe disso”, completa. Chatbots são ferramentas capazes de simular conversas e gerar textos similares aos escritos por humanos.
Essa humanização forjada tem encantado muitos usuários, que passaram a confiar intimidades e angústias a essas ferramentas e encarar a interação como uma sessão de terapia.
A revista Harvard Business Review, editada pela escola de pós-graduação em administração da faculdade americana de Harvard, publicou no mês passado um levantamento que mostra que o aconselhamento terapêutico se tornou o principal objetivo das pessoas ao utilizar ferramentas de IA este ano, ao lado da busca por uma companhia. Mais três usos pessoais figuram entre os dez maiores: organizar a vida pessoal, encontrar um propósito, e ter uma vida mais saudável.
“Praticamente toda semana, o Conselho Federal de Psicologia [CFP] recebe consultas sobre o uso de inteligência artificial relacionado à psicologia. Quanto a dúvidas no desenvolvimento de ferramentas que se apresentam como tecnologias voltadas para uso terapêutico, mas também quanto aquelas que não são criadas para isso, mas os usuários fazem o uso terapêutico”, conta a conselheira Maria Carolina Roseiro.
Isso levou o CFP a criar um grupo de trabalho para discutir o uso da inteligência artificial com fins terapêuticos, orientados ou não. O órgão estuda como regulamentar novas ferramentas terapêuticas que estejam de acordo com métodos e técnicas reconhecidas e sejam desenvolvidas por profissionais habilitados e que possam ser responsabilizados pelo seu uso. Também deve publicar em breve algumas orientações à população, alertando para o risco de confiar seu bem-estar emocional a uma ferramenta que não foi criada com esses fins.
“Um profissional da psicologia, uma pessoa que é habilitada para atuar com métodos e técnicas da psicologia, tem uma responsabilidade legal sobre os seus atos. Mas uma tecnologia não pode ser responsabilizada. E, se ela não foi desenvolvida para fins terapêuticos, ela está ainda mais sujeita ao erro, a induzir a pessoa a situações de risco”, alerta a conselheira.
Prós e contras
O professor da pós-graduação em psicologia da Pontifícia Universidade Católica do Rio de Janeiro (PUC-Rio) Leonardo Martins é um dos especialistas que compõem o grupo de trabalho do Conselho Federal de Psicologia. Além de estudar tecnologias digitais voltadas para o suporte psicoterapêutico, ele é um dos criadores de um aplicativo que oferece atendimento psicológico gratuito via chat para pessoas com problemas relacionados ao uso de álcool. Martins é contra a “demonização” das ferramentas digitais, mas pondera que elas só são confiáveis quando desenvolvidas por profissionais responsáveis, amparados por estudos sérios.
“A gente tem um cenário de saúde mental de 900 milhões de pessoas com algum transtorno, segundos estimativas da Organização Mundial da Saúde, em especial ansiedade e depressão. Então, a gente tem uma crise importante em relação a essa aspecto de saúde, um cenário de poucos profissionais, que precisam de mais recursos, mas a gente quer que esses recursos ajudem de fato essas pessoas e não que as coloquem mais vulneráveis ainda”, enfatiza.
Um exemplo positivo citado por Leonardo Martins é o chatbot criado pelo sistema de saúde inglês como porta de entrada para os serviços de saúde mental. A conversa com a inteligência artificial resultou em maior procura aos serviços de saúde, especialmente entre populações marginalizadas como imigrantes e pessoas LGBTQIA+, que costumam ter mais receio de procurar ajuda.
Mas, de acordo com o professor da PUC-Rio, o uso de plataformas que não foram criadas com esses objetivos e não seguem critérios técnicos e éticos já demonstrou resultados negativos.
“Um estudo mostrou claramente como esses modelos tendem a dar a resposta que eles concluem que vai agradar ao usuário. Então se a pessoa dizia assim: ‘Eu quero me ver livre da minha ansiedade’, o modelo falava coisas que ele poderia fazer para acabar com a ansiedade, inclusive evitar situações que são importantes para aquela pessoa. Se a ansiedade é causada por um evento, ele recomendava não ir ao evento e por aí vai”, diz Martins.
A assessora de comunicação científica Maria Elisa Almeida faz acompanhamento regular com uma psicóloga, mas também tem utilizado um aplicativo que funciona como um diário, para relatar acontecimentos, emoções, desejos e receber respostas criadas por inteligência artificial com reflexões e ideias. Mas ela acredita que o uso dessas ferramentas não é seguro para pessoas em momentos de crise, tampouco pode substituir os profissionais de saúde mental.
“Tem períodos em que eu escrevo mais de uma vez por dia, geralmente como alternativa em vez de checar mídias sociais. Mas tem períodos em que eu passo semanas sem escrever. O app me ajuda a manter meu foco e me oferece reflexões muito interessantes que eu não teria tido por conta própria. Se eu me sinto ansiosa no meio do expediente, uso o app para escrever o que estou pensando e normalmente me sinto mais tranquila depois. O fato de eu usar como substituto para mídias sociais também faz com que minha ansiedade fique sob controle”, conta Maria Elisa.
A conselheira do CFP Maria Carolina Roseiro acredita que o aumento da procura por essas ferramentas tem um lado positivo, mas faz ressalvas:
“Acho que isso indica, de um modo geral, que as pessoas estão dando mais atenção para o seu cuidado em saúde mental. Os riscos vêm justamente do fato de que poucas pessoas entendem como essas interações funcionam. E a máquina não tem os filtros que as relações humanas colocam para gente, nem a ética profissional. Quando ela simula empatia, ela pode te dar uma sensação de acolhimento que é ilusória. Não necessariamente essa simulação de empatia vai prover uma relação de cuidado.”
Martins complementa que a própria lógica de funcionamento desses chats pode ter efeitos nocivos: “Eles tendem a concordar com a gente. Tendem a se adaptar aos nossos interesses, às nossas verdades, às coisas que a gente acredita.. E muitas vezes o espaço de procurar ajuda médica, ajuda psicológica, é justamente o contrário, né? Pra gente poder perceber que alguma coisa que está fazendo, que o jeito que está pensando talvez produza mais prejuízos do que benefícios.”
Privacidade
O grupo de trabalho criado pelo Conselho Federal de Psicologia também se preocupa com a privacidade dos dados repassados pelos usuários.
“Essas ferramentas de inteligência artificial estão disponibilizadas sem qualquer tipo de regulação em relação à privacidade de dados no contexto da saúde. Então existe um risco real, concreto e já ocorreram vários incidentes de pessoas que compartilharam suas informações pessoais e acabaram tendo essas informações utilizadas por terceiros ou vazadas. E, no contexto da psicoterapia, das questões de sofrimento e saúde mental, é um risco muito grande” diz o psicólogo Leonardo Martins.
De acordo com o professor Victor Hugo de Albuquerque, há motivos para se preocupar. “Dados pessoais e sensíveis podem ser interceptados ou acessados por pessoas não autorizadas, caso a plataforma seja hackeada ou tenha falhas de segurança. Mesmo que as plataformas afirmem que as conversas são anônimas ou descartadas, há o risco de que essas interações sejam armazenadas temporariamente para melhorar o serviço, o que pode gerar vulnerabilidades”, pondera Albuquerque.
“Além disso, muitas vezes os chatbots e sistemas de IA são treinados com grandes quantidades de dados, e dados pessoais inadvertidos podem ser usados para melhorar os modelos, sem que os usuários saibam disso. Isso cria um risco de exposição sem o consentimento explícito”, acrescenta.
” – Tenho me perguntado se a vida vale a pena.”
“– É muito significativo que você tenha compartilhado isso comigo. Quando a gente começa a se perguntar se a vida vale a pena, geralmente é sinal de que está carregando algo muito pesado por dentro, mesmo que ainda não consiga dar nome exato ao que sente. Você tem sentido esse vazio ou essa dúvida com frequência?”
Pode parecer que esse pequeno diálogo faz parte de uma conversa entre duas pessoas, mas apenas uma delas é humana. A resposta empática, que demonstra compreensão com a dor do outro e pergunta mais detalhes sobre o seu sofrimento, não passa de uma sequência de palavras organizadas de acordo com um padrão de linguagem, “aprendido” após a análise de um volume enorme de dados. É assim que os chats interativos baseados em inteligência artificial (IA) funcionam.
“Esses sistemas são cada vez mais sofisticados e treinados para reconhecer os padrões usados no dia a dia, para prever quais palavras ou frases devem vir em sequência, baseadas nas palavras anteriores. Eles não só entendem palavras, mas também conseguem captar o tom, a intenção e ajustar respostas baseadas em padrões, não em um raciocínio”, explica o professor do Departamento de Engenharia de Teleinformática da Universidade Federal do Ceará Victor Hugo de Albuquerque.
“Essa capacidade de capturar contextos e intenções ajuda o chatbot a gerar respostas mais naturais e contextualmente apropriadas, simulando uma conversa humana com mais precisão. Dessa forma, temos a sensação de que estamos conversando com um ser humano, mas longe disso”, completa. Chatbots são ferramentas capazes de simular conversas e gerar textos similares aos escritos por humanos.
Essa humanização forjada tem encantado muitos usuários, que passaram a confiar intimidades e angústias a essas ferramentas e encarar a interação como uma sessão de terapia.
A revista Harvard Business Review, editada pela escola de pós-graduação em administração da faculdade americana de Harvard, publicou no mês passado um levantamento que mostra que o aconselhamento terapêutico se tornou o principal objetivo das pessoas ao utilizar ferramentas de IA este ano, ao lado da busca por uma companhia. Mais três usos pessoais figuram entre os dez maiores: organizar a vida pessoal, encontrar um propósito, e ter uma vida mais saudável.
“Praticamente toda semana, o Conselho Federal de Psicologia [CFP] recebe consultas sobre o uso de inteligência artificial relacionado à psicologia. Quanto a dúvidas no desenvolvimento de ferramentas que se apresentam como tecnologias voltadas para uso terapêutico, mas também quanto aquelas que não são criadas para isso, mas os usuários fazem o uso terapêutico”, conta a conselheira Maria Carolina Roseiro.
Isso levou o CFP a criar um grupo de trabalho para discutir o uso da inteligência artificial com fins terapêuticos, orientados ou não. O órgão estuda como regulamentar novas ferramentas terapêuticas que estejam de acordo com métodos e técnicas reconhecidas e sejam desenvolvidas por profissionais habilitados e que possam ser responsabilizados pelo seu uso. Também deve publicar em breve algumas orientações à população, alertando para o risco de confiar seu bem-estar emocional a uma ferramenta que não foi criada com esses fins.
“Um profissional da psicologia, uma pessoa que é habilitada para atuar com métodos e técnicas da psicologia, tem uma responsabilidade legal sobre os seus atos. Mas uma tecnologia não pode ser responsabilizada. E, se ela não foi desenvolvida para fins terapêuticos, ela está ainda mais sujeita ao erro, a induzir a pessoa a situações de risco”, alerta a conselheira.
O professor da pós-graduação em psicologia da Pontifícia Universidade Católica do Rio de Janeiro (PUC-Rio) Leonardo Martins é um dos especialistas que compõem o grupo de trabalho do Conselho Federal de Psicologia. Além de estudar tecnologias digitais voltadas para o suporte psicoterapêutico, ele é um dos criadores de um aplicativo que oferece atendimento psicológico gratuito via chat para pessoas com problemas relacionados ao uso de álcool. Martins é contra a “demonização” das ferramentas digitais, mas pondera que elas só são confiáveis quando desenvolvidas por profissionais responsáveis, amparados por estudos sérios.
“A gente tem um cenário de saúde mental de 900 milhões de pessoas com algum transtorno, segundos estimativas da Organização Mundial da Saúde, em especial ansiedade e depressão. Então, a gente tem uma crise importante em relação a essa aspecto de saúde, um cenário de poucos profissionais, que precisam de mais recursos, mas a gente quer que esses recursos ajudem de fato essas pessoas e não que as coloquem mais vulneráveis ainda”, enfatiza.
Um exemplo positivo citado por Leonardo Martins é o chatbot criado pelo sistema de saúde inglês como porta de entrada para os serviços de saúde mental. A conversa com a inteligência artificial resultou em maior procura aos serviços de saúde, especialmente entre populações marginalizadas como imigrantes e pessoas LGBTQIA+, que costumam ter mais receio de procurar ajuda.
Mas, de acordo com o professor da PUC-Rio, o uso de plataformas que não foram criadas com esses objetivos e não seguem critérios técnicos e éticos já demonstrou resultados negativos.
“Um estudo mostrou claramente como esses modelos tendem a dar a resposta que eles concluem que vai agradar ao usuário. Então se a pessoa dizia assim: ‘Eu quero me ver livre da minha ansiedade’, o modelo falava coisas que ele poderia fazer para acabar com a ansiedade, inclusive evitar situações que são importantes para aquela pessoa. Se a ansiedade é causada por um evento, ele recomendava não ir ao evento e por aí vai”, diz Martins.
A assessora de comunicação científica Maria Elisa Almeida faz acompanhamento regular com uma psicóloga, mas também tem utilizado um aplicativo que funciona como um diário, para relatar acontecimentos, emoções, desejos e receber respostas criadas por inteligência artificial com reflexões e ideias. Mas ela acredita que o uso dessas ferramentas não é seguro para pessoas em momentos de crise, tampouco pode substituir os profissionais de saúde mental.
“Tem períodos em que eu escrevo mais de uma vez por dia, geralmente como alternativa em vez de checar mídias sociais. Mas tem períodos em que eu passo semanas sem escrever. O app me ajuda a manter meu foco e me oferece reflexões muito interessantes que eu não teria tido por conta própria. Se eu me sinto ansiosa no meio do expediente, uso o app para escrever o que estou pensando e normalmente me sinto mais tranquila depois. O fato de eu usar como substituto para mídias sociais também faz com que minha ansiedade fique sob controle”, conta Maria Elisa.
A conselheira do CFP Maria Carolina Roseiro acredita que o aumento da procura por essas ferramentas tem um lado positivo, mas faz ressalvas:
“Acho que isso indica, de um modo geral, que as pessoas estão dando mais atenção para o seu cuidado em saúde mental. Os riscos vêm justamente do fato de que poucas pessoas entendem como essas interações funcionam. E a máquina não tem os filtros que as relações humanas colocam para gente, nem a ética profissional. Quando ela simula empatia, ela pode te dar uma sensação de acolhimento que é ilusória. Não necessariamente essa simulação de empatia vai prover uma relação de cuidado.”
Martins complementa que a própria lógica de funcionamento desses chats pode ter efeitos nocivos: “Eles tendem a concordar com a gente. Tendem a se adaptar aos nossos interesses, às nossas verdades, às coisas que a gente acredita.. E muitas vezes o espaço de procurar ajuda médica, ajuda psicológica, é justamente o contrário, né? Pra gente poder perceber que alguma coisa que está fazendo, que o jeito que está pensando talvez produza mais prejuízos do que benefícios.”
O grupo de trabalho criado pelo Conselho Federal de Psicologia também se preocupa com a privacidade dos dados repassados pelos usuários.
“Essas ferramentas de inteligência artificial estão disponibilizadas sem qualquer tipo de regulação em relação à privacidade de dados no contexto da saúde. Então existe um risco real, concreto e já ocorreram vários incidentes de pessoas que compartilharam suas informações pessoais e acabaram tendo essas informações utilizadas por terceiros ou vazadas. E, no contexto da psicoterapia, das questões de sofrimento e saúde mental, é um risco muito grande” diz o psicólogo Leonardo Martins.
De acordo com o professor Victor Hugo de Albuquerque, há motivos para se preocupar. “Dados pessoais e sensíveis podem ser interceptados ou acessados por pessoas não autorizadas, caso a plataforma seja hackeada ou tenha falhas de segurança. Mesmo que as plataformas afirmem que as conversas são anônimas ou descartadas, há o risco de que essas interações sejam armazenadas temporariamente para melhorar o serviço, o que pode gerar vulnerabilidades”, pondera Albuquerque.
“Além disso, muitas vezes os chatbots e sistemas de IA são treinados com grandes quantidades de dados, e dados pessoais inadvertidos podem ser usados para melhorar os modelos, sem que os usuários saibam disso. Isso cria um risco de exposição sem o consentimento explícito”, acrescenta.
Tecnologia
Windows: Confira 5 dicas para tornar o seu computador mais rápido
Ninguém gosta de trabalhar em um computador com Windows lento, mas, infelizmente, a passagem do tempo faz com que o uso contínuo resulte em um desempenho cada vez pior. No entanto, isso não precisa ser necessariamente assim.
A boa notícia é que existem algumas medidas que você pode adotar para cuidar do seu computador e deixá-lo um pouco mais rápido. Para isso, vale assumir uma postura proativa e seguir determinadas práticas que ajudam a acelerar o funcionamento da sua máquina de trabalho.
O site TechTudo reuniu cinco dicas simples que podem ser colocadas em prática imediatamente para melhorar o desempenho do computador. Algumas delas, inclusive, podem ter efeito imediato logo ao iniciar o dispositivo.
Como melhorar o desempenho do computador:
- Desative os programas que iniciam junto com o Windows;
- Ative o modo “Melhor desempenho”;
- Reduza a quantidade de efeitos visuais do sistema;
- Libere espaço de armazenamento e exclua arquivos temporários;
- Verifique quais programas estão sendo executados em segundo plano.
Fontes: Notícias ao Minuto
Tecnologia
O que é a Lua de Neve, fenômeno que iluminará o céu neste domingo
Neste domingo, 1º, a noite ficará ainda mais bela e iluminada com a chamada Lua de Neve, cujo ápice ocorre às 19h09. Para os interessados, o fenômeno será visível em todo o território nacional, dependendo, evidentemente, da boa vontade das condições meteorológicas.
Embora o nome seja bastante sugestivo, a Lua de Neve não entregará nenhum efeito visual digno de uma produção da Disney. Trata-se da Lua Cheia de fevereiro, revestida de um simbolismo que atravessa séculos.
O apelido tem origem nos povos indígenas da América do Norte, que tinham o hábito de batizar as luas conforme o clima local. Como fevereiro é o auge do inverno no Hemisfério Norte, o nome é autoexplicativo.
Registros históricos mostram que o satélite também já foi chamado de Lua da Fome, uma referência menos poética e bem mais realista à escassez de alimentos no fim do rigoroso inverno. Por razões óbvias de relações públicas, o termo \”Neve\” acabou prevalecendo no imaginário popular.
A Lua de Neve é uma superlua?
Não. Apesar do nome chamativo, a Lua de Neve não é, necessariamente, uma superlua. O termo superlua é usado quando a Lua Cheia coincide com o perigeu, ponto de sua órbita em que ela está mais próxima da Terra. Nesses casos, o satélite parece ligeiramente maior e mais brilhante no céu.
Neste domingo, a Lua estará cheia, mas a uma distância média, sem o aumento perceptível de tamanho ou brilho que caracterizam uma superlua. Ainda assim, as condições de observação continuam excelentes, especialmente em locais com pouca poluição luminosa.
Do ponto de vista astronômico, a Lua de Neve é uma Lua Cheia comum, visível durante toda a noite, nascendo ao pôr do sol e se pondo ao amanhecer. Seu brilho intenso pode ofuscar estrelas mais fracas, mas favorece observações a olho nu e fotografias de paisagens noturnas.
E sob o olhar da astrologia?
Na astrologia, a Lua Cheia é tradicionalmente associada a culminações, revelações e encerramentos de ciclos. A Lua de Neve, em especial, costuma ser interpretada como um momento de resiliência, introspecção e preparação para mudanças.
Astrólogos também a associam a processos internos. Desse modo, focam em revisão de metas, limpeza emocional e fortalecimento de estruturas pessoais; em sintonia com a ideia de atravessar o \”inverno\” para chegar à renovação.
A Lua cheia deste domingo ocorre em Leão, um signo que não aceita o papel de coadjuvante. Além disso, o ápice ocorre com Ascendente também em Leão, com o foco sobre a imagem que projetamos.
Em um mundo saturado pelos ruídos das redes sociais, o céu sugere que o verdadeiro prestígio não está nos algoritmos. É o momento de revisar sua \”marca pessoal\” sob uma ótica de autenticidade, não de engajamento.
Vale a pena observar a Lua de Neve?
Mesmo sem ser uma superlua, o fenômeno é um convite honesto para pausar o scrolling infinito e olhar para cima. Em um mundo de distrações digitais, reconectar-se com os ritmos naturais é um luxo analógico.
Basta um céu limpo e alguns minutos de descompressão. O espetáculo é garantido, gratuito e, felizmente, livre de anúncios.
Quais são as próximas luas cheias de 2026
A maioria dos anos têm 12 luas cheias, mas 2026 terá 13. Confira abaixo as datas, de acordo com o Departamento de Astronomia do Instituto de Astronomia, Geofísica e Ciências Atmosféricas da Universidade de São Paulo (IAG/USP). Os nomes seguem os padrões dos nativos americanos, segundo o The Old Farmers Almanac.
1º de fevereiro – Lua de Neve
3 de março – Lua da Minhoca
1º de abril – Lua Rosa
1º de maio – Lua das Flores
31 de maio – Lua Azul
29 de junho – Lua de Morango
29 de julho – Lua dos Cervos
28 de agosto – Lua de Esturjão
26 de setembro – Lua do Milho (Lua da Colheita)
26 de outubro – Lua do Caçador
24 de novembro – Lua do Castor
23 de dezembro – Lua Fria
Tecnologia
Nvidia é a empresa mais valiosa do mundo. Mas quanto paga a engenheiros?
O trabalho da Nvidia no desenvolvimento de chips de Inteligência Artificial lhe garantiu o status de empresa mais valiosa do mundo, com um valor estimado em 4,56 trilhões de dólares.
Com a ascensão meteórica da companhia nos últimos anos, torna-se especialmente interessante entender como a Nvidia busca reter e atrair talentos por meio de compensações financeiras.
Como informa o site Business Insider, a Nvidia não divulga os salários de seus funcionários, o que faz com que seja possível ter apenas uma estimativa a partir de documentos enviados ao Departamento do Trabalho dos Estados Unidos para a solicitação de vistos H-1B — um tipo de visto que permite que empresas norte-americanas contratem profissionais estrangeiros altamente qualificados.
A partir desses documentos, é possível observar que o salário-base de um engenheiro de software na Nvidia varia entre US$ 92 mil e US$ 425,5 mil por ano. Já os cientistas de pesquisa recebem entre US$ 104 mil e US$ 431,25 mil (cerca de 87.574 a 363.254 euros) anuais. Um gerente de produto, por sua vez, pode ganhar entre US$ 131.029 e US$ 379.500 (aproximadamente 110.369 a 319.664 euros) por ano.
É importante destacar que esses valores não incluem bônus nem participação acionária, o que significa que a remuneração total pode alcançar patamares significativamente mais altos.
A “guerra por talentos” entre as gigantes da tecnologia nos Estados Unidos se intensificou nos últimos anos, com a área de Inteligência Artificial se tornando um verdadeiro campo de batalha, no qual empresas como Meta, OpenAI, Google, Microsoft, Amazon e Apple, entre outras, disputam os principais especialistas do setor.
Leia Também: Pela 1ª vez, missão à Lua terá uma mulher, um negro e um não americano
-
Arquitetura8 meses atrásCasa EJ / Leo Romano
-
Arquitetura8 meses atrásCasa Crua / Order Matter
-
Arquitetura8 meses atrásCasa AL / Taguá Arquitetura
-
Arquitetura9 meses atrásTerreiro do Trigo / Posto 9
-
Arquitetura8 meses atrásCasa São Pedro / FGMF
-
Arquitetura8 meses atrásCasa ON / Guillem Carrera
-
Arquitetura1 mês atrásCasa Tupin / BLOCO Arquitetos
-
Política9 meses atrásEUA desmente Eduardo Bolsonaro sobre sanções a Alexandre de Moraes


