Nos últimos anos, a inteligência artificial (IA) passou a integrar e transformar as rotinas das empresas brasileiras. Áreas como atendimento, análise de dados e produção de conteúdo são alguns dos exemplos de onde essas ferramentas são aplicadas, e a adoção é crescente: segundo dados do Instituto Brasileiro de Geografia e Estatística (IBGE), houve um aumento de 163% na utilização de IA em indústrias entre 2022 e 2024. Essa expansão acompanha a demanda por soluções para o setor produtivo, ao mesmo tempo em que profissionais e pesquisadores chamam atenção para os riscos legais e operacionais da adesão à essas tecnologias.

Continua depois da publicidade

Em Santa Catarina, dados da Federação das Indústrias do Estado de Santa Catarina (FIESC) indicam que o uso de IA também já é uma realidade nas indústrias locais, em especial em projetos de visão computacional, machine learning e análise preditiva. A Federação registra também um aumento na procura por qualificação técnica na área, refletindo adoção e capacitação no estado.

Porém, ao incorporar novas tecnologias a seus processos e rotinas de trabalho, as empresas precisam estar atentas às implicações éticas e legais. Um dos alertas está relacionado à automatização do trabalho e à tendência de “delegar” a tomada de decisão aos sistemas de IA. Por mais que a tecnologia seja capaz de executar certas funções de forma satisfatória, a supervisão humana permanece necessária, e a ausência de monitoramento pode facilitar a ocorrência de erros que passam despercebidos.

Os potenciais erros podem levar ao que se costuma chamar de “alucinações”, situação em que o sistema produz informações que não correspondem a fatos verificáveis. Em processos de análise e tomada de decisão, isso pode gerar conclusões imprecisas. Também há casos em que conteúdos criados por IAs apresentam semelhanças significativas com materiais já publicados, o que levanta discussões sobre direitos autorais e responsabilidade no uso de conteúdo produzido pela inteligência artificial generativa.

Além disso, a tecnologia não é neutra: quando os dados utilizados para treinar os modelos de IA não representam adequadamente determinadas situações ou grupos, as respostas produzidas podem refletir essas distorções, levando a vieses algorítmicos. Casos de viés racial — como o software de reconhecimento facial que identificava erroneamente pessoas negras com maior frequência, levando a abordagens policiais indevidas nos EUA — ou sexista — como a ferramenta de recrutamento da Amazon, descontinuada após favorecer automaticamente candidatos homens e penalizar termos associados a mulheres e minorias — levantaram debates sobre o uso responsável dessa tecnologia, evidenciando como modelos treinados com dados distorcidos reproduzem desigualdades sociais.

Continua depois da publicidade

Regulamentação

Outra preocupação relevante é com a proteção de dados, particularmente em relação ao envio de informações pessoais e sensíveis para plataformas cujo funcionamento interno não é totalmente transparente para o usuário, nem totalmente dominado pelas empresas que adotam esses sistemas. No Brasil, a legislação que regula a coleta, uso, armazenamento e compartilhamento de dados pessoais em qualquer setor da economia é a Lei Geral de Proteção de Dados (LGPD, Lei nº 13.709/2018), que estabelece princípios como finalidade, transparência, segurança e necessidade, definindo como empresas devem tratar informações de clientes, fornecedores e colaboradores.

No contexto da inteligência artificial, a LGPD é central nas discussões sobre IA nas empresas, pois esses sistemas dependem diretamente de grandes volumes de dados para funcionar. Sem regras claras, o tratamento de dados inadequado pode gerar riscos como uso indevido de informações, exposição de dados sensíveis ou decisões automatizadas sem critérios transparentes. Para empresas que adotam IA, a conformidade com a LGPD não é apenas uma obrigação legal, mas também uma etapa essencial para garantir processos confiáveis, evitar falhas e manter a segurança e a integridade das informações que alimentam as tecnologias.

A legislação estabelece limites para coleta, armazenamento e uso de dados pessoais e determina que as organizações informem de forma clara as finalidades do tratamento, e também exige medidas de segurança adequadas ao tipo de dado processado. Na prática, as empresas precisam avaliar se as informações enviadas às ferramentas de IA são compatíveis com a lei e se há mecanismos de proteção suficientes para evitar exposição indevida.

Além da conformidade com a LGPD, o uso da IA pelas empresas depende de políticas internas claras, definição de limites e orientação contínua das equipes. Supervisão, revisão de materiais produzidos automaticamente e avaliação de riscos associados ao compartilhamento de dados fazem parte da rotina de adoção responsável da tecnologia.

Continua depois da publicidade

O Gestão de Valor conta com o oferecimento de CREA-SC e Vick IA e apoio de Senac. Realização NSC.

Garanta seu ingresso gratuito para o evento que vai revolucionar a sua visão de IA no mundo dos negócios