Envio express | GRÁTIS para encomendas superiores a 29€

Carrinho de Compras

O seu carrinho está vazio

Continuar a Comprar

ChatGPT e OpenIA investigados em Espanha por violação da lei de protecção de dados pessoais

Nas últimas horas, ChatGPT e o seu criador, OPEN IA, voltaram a aparecer nas notícias. A Agência Espanhola de Protecção de Dados (AEPD) anunciou numa declaração a investigação ex officio que está a lançar sobre o instrumento de inteligência artificial mais popular nos últimos meses.

A Espanha não será o primeiro país a lançar uma tal acção. Alguns outros, de facto, foram ainda mais longe. Foi o caso da Itália, que proibiu directamente a utilização da ferramenta no país e ordenou o seu bloqueio por alegada recolha ilegal de dados pessoais. Este foi o sinal de partida para que outros países europeus seguissem os passos da Itália e exigissem maiores medidas de controlo sobre o ChatGPT. 

No início de Abril, a AEPD já tinha pedido ao Comité Europeu para a Protecção de Dados que estudasse esta conversa sobre IA, considerando que ela poderia ter um impacto significativo nos direitos das pessoas. Desde então, passaram duas semanas e ontem (quinta-feira 13 de Abril), o organismo europeu aprovou a criação de uma task force para cooperar e partilhar informações sobre outras acções implementadas pelas diferentes autoridades locais de protecção de dados.

A Agência anunciou também ontem que, juntamente com o lançamento da investigação no nosso país a nível europeu, abrirá também uma investigação ao ChatGPT como autoridade local para avaliar a violação dos direitos dos indivíduos à protecção dos seus dados pessoais.

"E porquê tudo isto?", pode perguntar. Há vários argumentos. Alguns centram-se mais no facto de a ferramenta de inteligência artificial recolher uma enorme quantidade de dados pessoais com os quais treina e aprende. Ao não informar claramente como estes dados foram recolhidos, parece que pode não ser inteiramente legal a forma como chegam ao chat.

Outros argumentos estão em consonância com a utilização não autorizada de excertos de obras de outras pessoas que a plataforma emprega ao redigir um texto. Estou certo de que cada um dos peritos que abordam a questão tem uma nova nuance a acrescentar a todas estas teorias, e é devido a esta pluralidade de vozes que parecem estar a levantar-se em alerta contra o ChatGPT que as autoridades locais na Europa e em qualquer outra parte do mundo estão a implementar as suas medidas de controlo.

A realidade mostra que o desenvolvimento da Inteligência Artificial está a avançar mais rapidamente do que a legislação, pelo que ainda há muito trabalho a fazer para tornar estas ferramentas mais facilmente auditáveis e totalmente conformes com a legislação actual. Recorde-se que o ChatGPT atingiu 100 milhões de utilizadores nos seus dois primeiros meses de vida.

Grandes vozes tecnológicas unidas contra o avanço imparável da IA

"Apelamos a todos os laboratórios de IA para que parem imediatamente durante pelo menos 6 meses a formação de sistemas de IA mais potentes do que o GPT-4". Este é o pedido que os signatários da carta aberta expõem na sua carta no final de Março. Entre as principais personalidades no mundo da tecnologia, esta carta foi assinada por Elon Musk, Steve Wozniak (co-fundador da Apple) ou Jaan Tallinn (co-fundador da Skype). Desta forma, mais de 1.000 vozes líderes no mundo da tecnologia tornaram públicas as suas dúvidas sobre os rápidos avanços dos sistemas de IA. Mais especificamente, referiam-se às que foram um avanço na última versão lançada do GPT-4 (na prática, é o mesmo que o ChatGPT de que todos ouviram falar, mas com uma maior taxa de precisão de resposta ou algo mais desenvolvido).

 

Mas nem tudo são maus presságios para a IA. Esta carta também deixa claro que o desenvolvimento de sistemas de IA pode representar uma mudança profunda na história. Mas também faz dela uma condição para que seja devidamente gerida e planeada.

É claro que o desenvolvimento de tecnologias tão avançadas como a IA existe para facilitar as nossas vidas, mas deve ser sempre feito com respeito pelos direitos das pessoas, utilizando dados e informações fidedignas, e sendo leal à verdade. Nas últimas semanas vimos imagens falsas criadas pela IA mostrando o Papa Francisco com um casaco de Balenciaga ou Trump a resistir à polícia.

 

Este tipo de imagem reflecte a parte mais imoral destas ferramentas, aquela que engana e gera fake news.

A IA é muito mais do que o ChatGPT e existem diferentes tipos. As empresas tecnológicas têm vindo a utilizar este tipo de tecnologia há muitos anos para usos quotidianos, tais como desbloquear um dispositivo móvel só de olhar para ele. No futuro, espera-se que a combinação de diferentes tecnologias dê origem a projectos de uso particular que nos ajudem, com uma IA muito avançada conhecida como Reinforcement Learning, a controlar a temperatura nas nossas casas e escritórios para que as casas e empresas se tornem espaços completamente autónomos quando se trata de regular a temperatura e o conforto de uma forma economicamente mais eficiente e amiga do ambiente.

O lado amigável da IA também está lá, basta saber como utilizá-la.

português (Portugal)