La adopción de una política de IA ética en startups no se relaciona con una mayor obtención de fondos
Las empresas emergentes dedicadas a la atención médica o el comercio son las que han mostrado una mayor posibilidad de tener una política de IA implementada.
La inteligencia artificial generativa puede ser una gran aliada para las pymes y startups, ya que pueden acceder prácticamente de manera gratuita a tareas y capacidades que hasta ahora solo estaban en manos de grandes corporaciones.
Sin embargo, al igual que compañías más grandes, las empresas emergentes se enfrentan a desafíos éticos al usar la inteligencia artificial.
“Además de descifrar las normas éticas en su industria de rápido crecimiento y navegar por áreas grises regulatorias, estas startups deben desarrollar rápidamente su producto inicial para recaudar fondos y sobrevivir”, subrayan los autores de un estudio que ha analizado la relación entre las políticas éticas de IA y las empresas emergentes.
El trabajo ha sido elaborado por investigadores de la Escuela de Negocios Stern y la Universidad de Boston. Para su realización enviaron una encuesta digital a los fundadores, directores de tecnología y ejecutivos de 4593 empresas emergentes productoras de IA con menos de 500 empleados, con una tasa de respuesta del 8 %.
Las startups que respondieron a la encuesta tiene alrededor de cinco años de vida y emplean a una media de 25 personas, con casi la mitad que tiene diez empleados o menos. La encuesta se administró en todo el mundo, pero casi el 80 % de las respuestas provienen de EE.UU, Canadá y Europa.
Los investigadores combinaron los datos de la encuesta con datos de habilidades a nivel de empleado provenientes de perfiles de LinkedIn, datos demográficos, de financiación e inversores a nivel de empresa de Crunchbase y Pitchbook, datos a nivel de empresa sobre proveedores de la nube de BuiltWith y datos sobre políticas y prácticas ESG del sector industrial.
La encuesta preguntaba si las empresas tenían una política de IA y si alguna vez la habían aplicado y cómo. De las que respondieron, el 58 % dispone de una política de inteligencia artificial ética, pero el 40 % nunca había evocado sus políticas de una manera que condujera a un resultado costoso, como eliminar datos, despedir a un empleado o rechazar ventas. Hubo ‘heterogeneidad’ por industria, con las startups de atención médica y comercio mostrando la mayor probabilidad de tener una política de IA.
Principales conclusiones
Una de las principales conclusiones que arroja el estudio es que las startups que tenían una política de ética de IA tenían más probabilidades de participar en otras acciones pro-ética, como contratar programadores más diversos, recopilar datos más diversos o consultar con un experto en ética.
Esta correlación persiste incluso cuando se agregan medidas a nivel de la empresa, como la región, el tamaño, el MBA del fundador y las prácticas de ESG en todo el sector de la industria y la financiación previo.
También existe una correlación positiva entre las empresas que consideran la diversidad en la selección de datos de capacitación y tener una fundadora mujer. Los investigadores han señalado que “las mujeres pueden ser más conscientes de cómo los datos de capacitación no representativos afectan la equidad de los resultados para los subgrupos demográficos”.
Cuando una startup tiene una relación con una empresa de tecnología importante y más grande, es más probable que la primera disponga de una política de ética de IA. Cuando la relación entre la empresa emergente y la major tecnológica va más allá y se extiende al intercambio de datos, existe una correlación “positiva y fuerte” con la toma de medidas de la startup para utilizar datos de capacitación más diversos para evitar sesgos.
“En ausencia de regulación, las grandes empresas de tecnología, para bien o para mal, desempeñan un papel importante en el establecimiento de normas y la orientación de un desarrollo de IA más ético. Las empresas emergentes pueden tener dificultades para navegar por cuestiones éticas complejas sin estas relaciones o pueden no tener suficientes recursos de datos internos para desarrollar sus productos o dejar caer datos menos representativos”, explican los autores del estudio.
Tener políticas éticas de IA no implica lograr más fondos
Los investigadores también han encontrado que no hay correlación entre el ‘mero hecho’ de tener una política de ética de IA y la financiación.
No hubo cambios cuando se agregaron factores adicionales a nivel de la empresa, incluido si la empresa emergente se basó en una ubicación con una alta proporción de firmas de capital riesgo (Nueva York, Área de la Bahía de San Francisco, Londres y Boston) o el fundador de una startup tiene un MBA, los cuales podrían correlacionarse plausiblemente con la recaudación de fondos adicionales.
La relación entre la financiación y la realización de acciones pro-éticas se hizo más fuerte cuanto mayor era el número de acciones pro-éticas realizadas por la empresa emergente, con poca correlación si tomó solo una de esas acciones, pero una relación significativa si tomó tres o más.
Los investigadores han concluido que estos hallazgos respaldan que las acciones a favor de la ética, incluida la contratación de programadores de minorías, la búsqueda de datos más representativos y la interacción con expertos, son valoradas y visibles para los inversores y se relacionan con un mayor rendimiento.
Por último, la correlación entre la obtención de fondos y las acciones a favor de la ética tomadas por las startups se mostró más fuerte en aquellos proyectos que se ocupan de sistemas de IA más complejos, como las redes neuronales.
En cualquier caso, los investigadores sí señalan que las empresas emergentes deben “invertir sus escasos recursos en preparar sus empresas para los problemas éticos que se avecinan de una manera que sea visible para los inversores”.