La empresa OpenAI quiere que ayudes a su chat inteligente y por eso ChatGPT te pagará por descubrir un error en la IA, por lo que podrías recibir hasta 20.000 dólares de recompensa. Se trata de un programa para localizar errores dentro de la herramienta, para hacer su Inteligencia Artificial más segura y avanzada.
Esta iniciativa está siendo manejada a través del programa OpenAI Bug Bounty, con el que pretenden recompensar a esas personas que se han dado la tarea de encontrar las brechas de seguridad presentes dentro de ChatGPT.
La nueva estrategia de eliminación de errores se está llevando adelante en una alianza especial junto a la plataforma Bugcrowd, que está especializada en impulsar este tipo de programas de recompensas por la localización de errores en cualquier software o sistema.
Cómo ganar dinero corrigiendo a ChatGPT y cuánto pagan
Tienen la propuesta de llevar adelante una acción transparente y con las reglas del juego claras, lo que evitará que se puedan generar malos entendidos, así que se han establecido las pautas para que se pueda participar, pero también lo que las personas participantes puedan esperar del Programa Bug Bounty.
La empresa señala que establecerá diferentes rangos de recompensas, que dependerán de diferentes aspectos para calificar en uno u otro tipo de error detectado. Comienzan las recompensas con 200 dólares por fallos de baja gravedad que hayan sido encontrados, hasta 20.000 dólares por descubrimientos delicados y excepcionales.
Además, los participantes podrían optar para participar en el proceso de selección dentro de los puestos de seguridad disponibles en la página de carreras de OpenAI.
Con la implementación de esta estrategia pretenden establecer los mayores estándares de seguridad posibles, además de solventar vulnerabilidad en tiempo récord, que de cualquier otra manera podrían tomar meses.
Los participantes deberán utilizar el programa Bugcrowd de OpenAI para la comunicación relacionada con vulnerabilidades y que puedan ser válidas para su participación y recompensas.
Algunos de los ejemplos de vulnerabilidades que pudieran descubrirse son; por ejemplo, que logres hacer Jailbreaks o Bypasses de seguridad, conseguir que el modelo te diga cosas negativas o que te explique cómo lograr acciones negativas.
Así mismo, si logras que la Inteligencia Artificial pueda escribir códigos maliciosos para ti o pretenciones de respuestas a secretos.
ChatGPT va a estancar Internet: ¿por qué?
- Ver Comentarios